Projetar, desenvolver e manter pipelines de dados eficientes para a extração, ingestão e transformação de dados provenientes de fontes como SAP S4, SAP ECC, APIs, flat files e outras fontes de dados comuns.
Trabalhar principalmente com Databricks e ferramentas de ETL, garantindo a integração e a qualidade dos dados dentro de um ambiente corporativo dinâmico.
Foco em fontes, público e processos das áreas de supply chain e indústria.
Requisitos
Mandatório:
Databricks/Azure ADF
Kafka (domínio mediano) trabalhando com medalia, armazenando em delta lake, unity catalog (participará da implementação)
Forma de Contratação
Recursos Humanos/ Recrutamento e seleção
Obtém a tua avaliação gratuita e confidencial do currículo.