Ativa os alertas de emprego por e-mail!

Engenheiro De Dados

buscojobs Brasil

Jacupiranga

Presencial

BRL 20.000 - 80.000

Tempo integral

Há 11 dias

Resumo da oferta

Uma empresa de tecnologia está em busca de um(a) Engenheiro(a) de Dados Sênior para atuar na construção e manutenção de pipelines de dados no Google Cloud Platform. O candidato ideal deve ter experiência sólida em ETL e SQL, além de um diploma relevante. A posição oferece um modelo remoto e híbrido, CLT e benefícios.

Qualificações

  • Experiência sólida com ferramentas de nuvem como GCP.
  • Domínio em SQL e otimização de queries.
  • Familiaridade com práticas de CI / CD.

Responsabilidades

  • Projetar e manter pipelines de dados eficientes e escaláveis.
  • Gerenciar e otimizar o Data Lake.
  • Desenvolver processos de transformação de dados.

Conhecimentos

Google Cloud Platform (GCP)
SQL avançado
Desenvolvimento em Python
ETL / ELT
DataOps

Formação académica

Ensino Superior Completo em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas

Ferramentas

Google Cloud Storage
BigQuery
Airbyte
DBT
Descrição da oferta de emprego

A Foursys é um time apaixonado por inovação, design e transformação digital.

Somos globais, somos GPTW.

Na Foursys, celebramos a diversidade e acreditamos que são as diferentes ideias e perspectivas que nos enriquecem. Portanto, sua cor, religião, gênero, raça, nacionalidade, idade, origem, identidade de gênero, deficiência ou orientação sexual não são barreiras para se juntar à nossa equipe. #VemSerFoursys!

Todas as nossas vagas estão abertas para Pessoas com Deficiência (PCD). Caso você se enquadre ou conheça alguém com o perfil, a Foursys é a empresa ideal!

Que tal se juntar a nós e se tornar um(a) #FourTalent? Então se liga nessa oportunidade incrível:

Estamos em busca de um(a) Engenheiro(a) de Dados Sênior para atuar na construção, manutenção e evolução de pipelines de dados escaláveis e confiáveis. Essa posição é estratégica para garantir a integridade, qualidade e governança dos dados em uma arquitetura moderna de dados, com foco em GCP.

Sobre o Papel

Responsabilidades:

  • Projetar, construir e manter pipelines de dados eficientes e escaláveis.
  • Gerenciar e otimizar o Data Lake, assegurando organização e qualidade dos dados brutos.
  • Desenvolver processos de transformação de dados utilizando ferramentas modernas de ETL / ELT.
  • Modelar e otimizar estruturas de dados para atender às necessidades de analytics.
  • Implementar boas práticas de governança de dados: metadados, linhagem, qualidade e versionamento.
  • Monitorar e corrigir falhas nos pipelines garantindo a confiabilidade e os SLAs estabelecidos.
  • Colaborar com times de dados, analytics e negócio para mapear e implementar soluções de valor.
Qualificações
  • Ensino Superior Completo em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas.
Habilidades Requeridas
  • Experiência sólida com Google Cloud Platform (GCP), principalmente:
  • Google Cloud Storage
  • BigQuery
  • Google Cloud Functions
  • Domínio em ferramentas de ETL / ELT, como:
  • Airbyte (ou equivalentes: Fivetran, Stitch)
  • DBT (Data Build Tool)
  • SQL avançado e técnicas de otimização de queries.
  • Desenvolvimento em Python para automação e manipulação de dados.
  • Conhecimento em modelagem de dados (ex: Dimensional, Data Vault).
  • Familiaridade com DataOps e práticas de CI / CD aplicadas a pipelines de dados.
  • Conhecimento em outras nuvens (Azure, AWS).
  • Experiência com ferramentas de versionamento e observabilidade de dados.
  • Certificações GCP ou DBT.
Modelo de Contratação

Atuação: Remoto e Híbrido

Modelo de contratação: CLT + Benefícios

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.

Ofertas semelhantes