Ativa os alertas de emprego por e-mail!

Engenheiro(a) de Dados - Remoto

Capco

São Paulo

Teletrabalho

BRL 20.000 - 80.000

Tempo integral

Há 11 dias

Resumo da oferta

Uma consultoria em transformação digital busca um(a) Engenheiro(a) de Dados para liderar a equipe de injestão de dados e garantir a qualidade e integridade dos dados através de arquiteturas modernas. Os candidatos devem ter conhecimentos avançados em Python, R ou Scala e SQL, além de experiência com Azure Data Factory e frameworks de dados. O trabalho será em São Paulo, Brasil.

Qualificações

  • Conhecimentos de programação (Python, R ou Scala) e SQL avançados.
  • Capacidade de fazer o controle de qualidade de código/scripts de migração/injestão de dados.
  • Experiência com ecossistema de Dados em nuvem.

Responsabilidades

  • Liderar equipe de injestão de dados.
  • Responsável pela coordenação das atividades de engenheiros de dados.
  • Definir e organizar fluxos de transformação de dados.

Conhecimentos

Programação em Python
Programação em R
SQL avançado
Controle de qualidade de código
Azure Data Factory
Databricks

Ferramentas

Oracle
SQLServer
DB2
Descrição da oferta de emprego

A Capco é uma consultoria global de tecnologia, e gestão especializada na transformação digital, oferecendo soluções inovadoras e orientadas por dados para um portfólio crescente de mais de 100 clientes globais, entre eles bancos, pagamentos, mercados de capitais, gestão de patrimônio e ativos, seguros e setor de energia.

Nos destacamos pela abordagem personalizada, focada na construção de parcerias estratégicas de longo prazo e na aceleração de iniciativas digitais. Nossa expertise ganha vida por meio dos Innovation Labs e da cultura premiada #BeYourselfAtWork, que valoriza a diversidade e o talento.

Posição: Engenheiro(a) de Dados

Responsabilidade
  • Liderar equipe de injestão de dados;
  • Responsável pela coordenação das atividades dos engenheiros de dados no desenvolvimento de pipelines, garantindo execução eficiente e entregas de alta qualidade.
  • Definir e organizar fluxos de transformação dos dados e estruturas de armazenagem em Deltalake.
  • Apoiar na arquitetura de dados para ingestão, armazenamento e processamento.
  • Assegurar integridade e qualidade dos dados com controles e validações.
  • Estabelecer padrões e melhores práticas, promovendo técnicas modernas.
  • Monitorar e otimizar performance e escalabilidade dos fluxos e pipelines.
Habilidades e conhecimento
  • Conhecimentos de programação (Python, R ou Scala) e SQL avançados, ferramentas de injestão de dados, plataformas de dados, frameworks e arquitetura de dados;
  • Capacidade de fazer o controle de qualidade de código/scripts de migração/injestão de dados;
  • Ecossistema de Dados em nuvem (Azure Data Factory, Databricks (incluindo MLLib) );
  • Bancos de dados relacionais, Oracle, SQLServer, DB2
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.