Atividades:
- Desenvolvimento de Consultas SQL Eficientes;
- Integração de Dados de Fontes Variadas;
- Gestão de Metadados;
- Otimização de Consultas e Desempenho;
- Projetar, implementar e manter pipelines ETL eficientes e escaláveis usando ferramentas como Databricks, Python e PySpark;
- Garantir a integridade e qualidade dos dados durante todo o processo de transformação;
- Demonstrar proficiência em Python para desenvolvimento de scripts e automação;
- Experiência sólida em SparkSQL para consulta e manipulação eficaz de dados distribuídos;
- Colaborar estreitamente com equipes interdisciplinares para entender os requisitos de dados e fornecer soluções eficazes;
- Comunicar resultados e insights de maneira clara e compreensível para públicos técnicos e não técnicos.
Requisitos:
- Graduação completa em Engenharias, Tecnologia ou áreas afins;
- Mestrado concluído ou em andamento em Engenharias, Ciências da Computação ou áreas áfins;
- Experiência na função ou em atividades correlatas.
Conhecimentos que te diferenciam no recrutamento:
- Databricks;
- Python;
- Pyspark;
- Sparsql;
- Azure data lake;
- ETL;
- SQL. ;