Ativa os alertas de emprego por e-mail!

Engenheiro De Dados

buscojobs Brasil

São Paulo

Presencial

BRL 20.000 - 80.000

Tempo integral

Há 14 dias

Resumo da oferta

Uma empresa de tecnologia está em busca de um Engenheiro de Dados Sênior para atuar na construção e manutenção de pipelines de dados. O profissional deve ter experiência sólida com Google Cloud Platform e ferramentas de ETL/ELT. O trabalho será remoto ou híbrido, com contrato CLT + benefícios.

Qualificações

  • Experiência sólida com Google Cloud Platform (GCP).
  • Domínio em ferramentas de ETL / ELT.
  • Conhecimento em modelagem de dados e práticas de DataOps.

Responsabilidades

  • Projetar, construir e manter pipelines de dados eficientes e escaláveis.
  • Gerenciar e otimizar o Data Lake.
  • Desenvolver processos de transformação de dados utilizando ferramentas modernas de ETL/ELT.
  • Implementar boas práticas de governança de dados.

Formação académica

Ensino Superior Completo em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas

Ferramentas

Google Cloud Storage
BigQuery
Google Cloud Functions
Airbyte (ou equivalentes: Fivetran, Stitch)
DBT (Data Build Tool)
SQL
Python
Descrição da oferta de emprego

A Foursys é um time apaixonado por inovação, design e transformação digital.

Somos globais, somos GPTW.

Na Foursys, celebramos a diversidade e acreditamos que são as diferentes ideias e perspectivas que nos enriquecem. Portanto, sua cor, religião, gênero, raça, nacionalidade, idade, origem, identidade de gênero, deficiência ou orientação sexual não são barreiras para se juntar à nossa equipe. #VemSerFoursys!

Todas as nossas vagas estão abertas para Pessoas com Deficiência (PCD). Caso você se enquadre ou conheça alguém com o perfil, a Foursys é a empresa ideal!

Que tal se juntar a nós e se tornar um(a) #FourTalent? Então se liga nessa oportunidade incrível :

Estamos em busca de um(a) Engenheiro(a) de Dados Sênior para atuar na construção, manutenção e evolução de pipelines de dados escaláveis e confiáveis. Essa posição é estratégica para garantir a integridade, qualidade e governança dos dados em uma arquitetura moderna de dados, com foco em GCP.

Sobre o Papel

Responsabilidades

  • Projetar, construir e manter pipelines de dados eficientes e escaláveis.
  • Gerenciar e otimizar o Data Lake, assegurando organização e qualidade dos dados brutos.
  • Desenvolver processos de transformação de dados utilizando ferramentas modernas de ETL / ELT.
  • Modelar e otimizar estruturas de dados para atender às necessidades de analytics.
  • Implementar boas práticas de governança de dados: metadados, linhagem, qualidade e versionamento.
  • Monitorar e corrigir falhas nos pipelines garantindo a confiabilidade e os SLAs estabelecidos.
  • Colaborar com times de dados, analytics e negócio para mapear e implementar soluções de valor.
Qualificações
  • Ensino Superior Completo em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas.

Habilidades Requeridas

  • Experiência sólida com Google Cloud Platform (GCP), principalmente :
  • Google Cloud Storage
  • BigQuery
  • Google Cloud Functions
  • Domínio em ferramentas de ETL / ELT, como :
  • Airbyte (ou equivalentes : Fivetran, Stitch)
  • DBT (Data Build Tool)
  • SQL avançado e técnicas de otimização de queries.
  • Desenvolvimento em Python para automação e manipulação de dados.
  • Conhecimento em modelagem de dados (ex : Dimensional, Data Vault).
  • Familiaridade com DataOps e práticas de CI / CD aplicadas a pipelines de dados.
  • Conhecimento em outras nuvens (Azure, AWS).
  • Experiência com ferramentas de versionamento e observabilidade de dados.
  • Certificações GCP ou DBT.
Modelo de Contratação

Atuação: Remoto e Híbrido

Modelo de contratação : CLT + Benefícios

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.

Ofertas semelhantes