Nosso propósito é criar tecnologias que desafiam as melhores do mundo e mudam o jogo para nossos clientes. Por isso, buscamos profissionais que desejam fazer parte de uma cultura pautada pela excelência e inovação. Se você se identifica com um ambiente de trabalho colaborativo e movido por curiosidade, venha construir o futuro da tecnologia conosco.
Sobre a oportunidade
Transforme dados em impacto real. Você fará parte do time de Plataforma de Dados e vai habilitar áreas de Analytics e Negócio a tomar decisões com velocidade e confiança. Procuramos alguém com forte base técnica, autonomia e vontade de elevar o padrão da engenharia de dados em escala. Aqui, qualidade de dados e segurança andam junto com velocidade e automação.
- Atuar como ponto de referência técnico no time de Plataforma de Dados.
- Traduzir necessidades de negócio em requisitos técnicos claros.
- Planejar, desenvolver, revisar código e implementar soluções de dados.
- Realizar autogestão, comunicando progresso e mudanças com transparência.
- Colaborar com o time, difundindo boas práticas e conhecimento.
- Gerenciar múltiplas prioridades, garantindo a qualidade das entregas.
- Documentar infraestrutura, frameworks e soluções.
- Diagnosticar falhas e incidentes em arquitetura Data Mesh.
- Coletar requisitos e desenhar arquiteturas para integrações com o Data Lake.
- Desenvolver e manter frameworks de ingestão e processamento (relacionais, NoSQL, arquivos, APIs).
- Construir soluções escaláveis com Spark sob Glue e EMR, orquestradas com Airflow.
- Automatizar processos para simplificar o consumo e o compartilhamento de dados.
- Evoluir frameworks existentes e provisionar infraestrutura com Terraform.
- Atender demandas operacionais e evolutivas do time de Plataforma.
- Dividir o foco entre desenvolvimento de sprint e suporte (ITIL) níveis 2 e 3.
Requisitos obrigatórios
- Práticas e conceitos de gestão de dados: Data Mesh, Data Lake, Medallion.
- Domínio de Python, PySpark, SQL, dbt e Terraform.
- Experiência com bancos relacionais (SQL Server, Sybase), NoSQL (MongoDB), APIs de mercado e arquivos.
- Vivência em AWS: Glue, Athena, EMR, Lake Formation, DataZone, MWAA, S3, Lambda, EventBridge, DynamoDB, CloudWatch, IAM e correlatos.
- Ferramentas de DevOps e Observabilidade: Azure DevOps, Datadog, pipelines, permissões, packages, logs e métricas.
- Atuação com metodologias ágeis (Scrum, Kanban, SAFe, Agile).
- Vivência na stack de dados em GCP.
Diferenciais
- Experiência em ambientes de alta complexidade e escala.
- Certificações AWS.
- Projetos de automação de processos de dados.
- Conhecimento em governança de dados e segurança em cloud.
- Proatividade e autogestão.
- Comunicação clara entre áreas técnicas e de negócio.
- Colaboração e compartilhamento de conhecimento.
- Organização e foco em resultados.
- Conforto para lidar com múltiplas demandas e prioridades.
Como trabalhamos
- Cultura orientada a dados, qualidade e segurança por padrão.
- Decisões com contexto e foco no cliente interno.
- Melhoria contínua, com revisões de código, boas práticas e automação.
Atuamos em um modelo de trabalho remoto por padrão, priorizando a sua liberdade e responsabilidade. Além disso, proporcionamos:
Carreira
- Liberdade para trabalhar de onde quiser
- Horários flexíveis
- Auxílio Educação
- Ferramenta própria de desenvolvimento de carreira
- Guildas internas e grupos de estudo e interesse
Saúde e bem-estar
- Plano de saúde
- Wellhub
- Licença maternidade estendida
- Licença paternidade estendida
- Vale-refeição e alimentação
- Seguro de vida
- Auxílio home office
- Auxílio Creche
- Auxílio plano telefônico
- Participação em Lucros e Resultados
Respeito e Inclusão é um dos pilares da nossa cultura, por isso estamos engajados na busca por mais diversidade.
Nossas oportunidades são consideradas para todas as pessoas. Repudiamos qualquer tipo de discriminação, seja por raça, deficiência, gênero, idade, orientação sexual, estética, estado civil e condição financeira ou familiar. Todas as pessoas e suas pluralidades são bem‑vindas à Zup.