Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Engenheiro de Dados Pleno (Soluções de Analytics em Advertising)

Globo

Rio de Janeiro

Presencial

BRL 120.000 - 150.000

Tempo integral

Há 2 dias
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de comunicação no Rio de Janeiro busca um Engenheiro de Dados Pleno para desenvolver e gerenciar pipelines de ingestão e transformação de dados. Esta função envolve garantir a performance das soluções de dados, modelagem de dados e colaboração em times multidisciplinares. O candidato ideal deve ter experiência com GCP, SQL e Python, além de habilidades em Git e metodologias ágeis. É uma excelente oportunidade para quem deseja crescer na área de dados.

Qualificações

  • Experiência com desenvolvimento de pipelines de dados em ambiente de nuvem, preferencialmente GCP.
  • Sólidos conhecimentos em SQL e linguagens como Python.
  • Experiência com controle de versionamento e metodologias ágeis.

Responsabilidades

  • Desenvolver, testar e manter pipelines de ingestão e transformação de dados.
  • Garantir a confiabilidade e performance das soluções de dados.
  • Participar da modelagem de dados e definição de arquitetura para soluções analíticas.

Conhecimentos

Desenvolvimento de pipelines de dados (ETL/ELT)
SQL
Python
Controle de versionamento (Git)
Metodologias ágeis
Boas práticas de segurança
Trabalho colaborativo
Arquitetura de dados em camadas

Ferramentas

GCP (Google Cloud Platform)
Terraform
Looker
Descrição da oferta de emprego
Engenheiro de Dados Pleno (Soluções de Analytics em Advertising) – Globo – Rio de Janeiro

Responsabilidades e atribuições

  • Desenvolver, testar e manter pipelines de ingestão, transformação e disponibilização de dados
  • Garantir a confiabilidade, escalabilidade e performance das soluções de dados
  • Trabalhar com grandes volumes de dados estruturados e não estruturados
  • Participar da modelagem de dados e definição de arquitetura para soluções analíticas

Requisitos e qualificações

  • Experiência com desenvolvimento de pipelines de dados (ETL/ELT) em ambiente de nuvem preferencialmente GCP (Google Cloud Plataform)
  • Experiências com as ferramentas do GCP
  • Sólidos conhecimentos em SQL e linguagens como Python
  • Experiência com controle de versionamento (Git) e metodologias ágeis
  • Conhecimento de CI/CD para pipelines de dados
  • Noções do Terraform
  • Conhecimento de boas práticas de segurança, governança e qualidade de dados
  • Capacidade de trabalhar de forma colaborativa em times multidisciplinares
  • Vivência com arquitetura de dados em camadas e integração com ferramentas de BI (como o Looker)

Conhecimentos que te destacam

  • Experiências com as ferramentas do GCP (Google Cloud Plataform)
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.