Job description
.
Main responsibilities
- Construir pipelines de dados para ingestão, processamento e tratamento de dados estruturados e não estruturados em ambiente Azure + Databricks e GCP;
- Modelar dados e estabelecer relacionamentos entre entidades;
- Criar e manter transformações utilizando Spark (PySpark) e SQL;
- Integrar dados de diferentes fontes, como AWS, arquivos, bancos relacionais, entre outros;
- Contribuir com a governança de dados, aplicando boas práticas de versionamento, segurança e rastreabilidade.
Requirements and skills
- Experiência com ambientes de nuvem, especialmente Azure Data Lake e GCP Cloud Storage;
- Conhecimento em Databricks e ferramentas de processamento distribuído;
- Domínio de Spark (PySpark) e SQL para transformação de dados;
- Familiaridade com integração de dados entre diferentes fontes (AWS, arquivos, bancos de dados relacionais etc.);
- Boa compreensão de modelagem de dados e práticas de governança e segurança da informação.
Não possui todos os requisitos para a vaga?
Está tudo bem! Na Compass UOL, estimulamos o desenvolvimento contínuo de novos talentos e transformamos desafios em oportunidades.
Additional information
#remote
"remote"