Main responsibilities
- Desenvolver e otimizar pipelines de dados em ambientes cloud (especialmente AWS);
- Escrever e otimizar queries SQL em larga escala (com foco em performance e escalabilidade);
- Realizar extração, transformação e carga (ETL/ELT) de dados a partir de múltiplas fontes;
- Participar da modelagem de dados para Data Lakes e Data Warehouses;
- Aplicar boas práticas de governança, segurança e qualidade dos dados;
- Automatizar fluxos com ferramentas de orquestração como Apache Airflow;
- Realizar a Migração de dados de Azure para AWS e migração e fundação do Databricks para o ambiente Produtivo na AWS;
- Colaborar com times de negócio e dados para garantir a disponibilidade e usabilidade da informação.
Requirements and skills
- Experiência com Databricks (Jobs, Notebooks, Workflows), Pyspark e Spark SQL;
- Conhecimentos em AWS DataSync;
- Conhecimento avançado em programação Python e SQL;
- Experiência em Modelagem de Dados;
- Capacidade de consumir e integrar dados via APIs RESTful e/ou SOAP;
- Conhecimento em migração de dados e testes de validação;
- Conhecimento ambiente Azure para realizar a migração para AWS.
Não possui todos os requisitos para a vaga?
Está tudo bem! Na Compass UOL, estimulamos o desenvolvimento contínuo de novos talentos e transformamos desafios em oportunidades.
Additional information
#remote
remote