A Keyrus acredita na diversidade e na inclusão. Encorajamos a todos a participarem em nosso processo de contratação, independentemente de gênero, idade, raça ou religião. Não permitimos discriminação de qualquer tipo, reforçando esse compromisso em nossos processos e na cultura da empresa.
Reconhecemos que grandes resultados são alcançados por uma equipe talentosa e apaixonada, com desejo de crescimento profissional e de construir uma carreira conosco.
Papéis e Responsabilidades:
- Desenvolver e manter pipelines de dados robustos, escaláveis e de alto desempenho, utilizando tecnologias como Azure Data Factory, PySpark, Python, SQL e bancos de dados NoSQL.
- Orquestrar workflows de dados seguindo princípios de DAG (Directed Acyclic Graph), garantindo eficiência e confiabilidade.
- Criar e otimizar tabelas e modelos de dados, aplicando técnicas como indexação, particionamento e modelos dimensionais (Star Schema).
- Garantir a qualidade e integridade dos dados por meio de testes, auditorias e validações contra regras de negócios.
- Colaborar com equipes de negócios para entender necessidades analíticas e traduzir requisitos em soluções de dados eficazes.
- Implementar processos de governança de dados, assegurando conformidade com LGPD e GDPR, incluindo criptografia de PII, controle de acessos e auditoria de dados.
- Monitorar e otimizar o desempenho de processos ETL/ELT e armazenamento de dados em Data Lakes e Data Warehouses.
- Aplicar princípios de DevOps e CI/CD para automação de testes, versionamento de código e implantação de pipelines.
- Colaborar com times globais para garantir a padronização das melhores práticas em engenharia de dados.
Qualificações Essenciais:
- Inglês fluente, para comunicação com times internacionais.
- Disponibilidade para atuar no modelo híbrido, 3x na semana na região de Pinheiros/SP.
- Experiência no desenvolvimento e gerenciamento de processos ETL/ELT.
- Sólidos conhecimentos em SQL, incluindo consultas complexas e otimização de performance.
- Experiência com modelagem de dados analítica e OLTP.
- Experiência em pelo menos uma das linguagens: Python, PySpark ou C#.
- Conhecimento em Cloud Computing (Azure, AWS ou GCP) e suas ferramentas de armazenamento e processamento de dados.
- Experiência com Spark para processamento distribuído de dados.
- Entendimento de conceitos de Machine Learning aplicados à análise de dados.
- Experiência com APIs REST, OAuth e integração de dados em tempo real.
- Conhecimento em ferramentas de versionamento de código e CI/CD (Azure DevOps, Git, etc.).
- Familiaridade com ferramentas de BI (Power BI, Tableau, Looker).
- Habilidade para trabalhar em ambientes ágeis e times internacionais, com boa comunicação entre áreas técnicas e de negócios.
Nossa missão é ajudar as empresas a extrair todo o potencial de Dados e Digital, visando aumentar seu desempenho, impulsionar a transformação digital, gerar novas oportunidades de crescimento e fortalecer sua competitividade.
Vem fazer parte do Time Keyrus!
Se desejar saber mais sobre nós, visite nosso site: http://www.keyrus.com/br/
Desejamos boa sorte!