O que buscamos
Profissional que atue com Engenharia de Dados com experiência comprovada em projetos de integração entre SAP e plataformas de dados na nuvem (preferencialmente Azure).
Responsabilidades
- Configurar e gerenciar a extração de dados do SAP utilizando Change Data Capture (CDC) ou conectores equivalentes.
- Desenvolver e manter pipelines de ingestão e transformação de dados no Azure Synapse e Azure Data Factory.
- Implementar processos de transformação utilizando Python/PySpark em Spark Pools do Synapse.
- Armazenar, estruturar e otimizar os dados nas camadas do Azure Data Lake (Bronze → Silver), seguindo boas práticas de Data Lakehouse.
- Garantir qualidade, consistência, segurança e governança dos dados durante todo o ciclo de ingestão.
- Trabalhar em conjunto com a equipe de arquitetura de soluções para alinhar práticas de integração, performance e governança.
Requisitos e qualificações
- Azure Data Lake Storage Gen2 (modelagem de camadas Bronze, Silver, Gold).
- Azure Synapse Analytics (SQL Pools e Spark Pools).
- Azure Data Factory (pipelines, data flows, integration runtime).
- Python / PySpark para processamento distribuído.
- SQL (T-SQL) avançado.
- SAP ECC/S4 (tabelas, CDS Views, ODP, OData, replicação).
- Conceitos de CDC (Change Data Capture) e cargas incrementais.
Desejável
- Experiência em Data Governance e catálogo de dados.
Descrição comportamental
Procuramos uma pessoa que:
- Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
- Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
- Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
- Tenha habilidades de resolução de problemas;
- Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
- Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver – small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT