Job description
Engenheiro(a) de Dados Pleno ou Sênior
🚀 Sobre a Vaga
Estamos em busca de um(a) Engenheiro(a) de Dados Pleno ou Sênior para um desafio empolgante: ser uma peça-chave na construção da nossa nova plataforma de dados corporativa.
Você fará parte do time responsável por desenhar, implementar e escalar nosso Data Lakehouse, estruturando o fluxo de dados em uma arquitetura Medallion (camadas Bronze, Prata e Ouro). Sua atuação será fundamental para transformar dados brutos em insights acionáveis que direcionarão as estratégias da companhia.
Se você é apaixonado(a) por dados, busca um ambiente com autonomia, propósito e oportunidades reais de evolução, e quer construir soluções de alto impacto do zero, esta vaga é para você.
Main responsibilities
📋 Responsabilidades e Atribuições
- Projetar, desenvolver e manter pipelines de dados (ETL/ELT) robustos, eficientes e escaláveis utilizando o ecossistema Databricks ou similar (PySpark e SQL).
- Implementar e gerenciar a arquitetura Medallion, garantindo a correta transição, limpeza, enriquecimento e agregação dos dados entre as camadas Bronze, Prata e Ouro.
- Construir e otimizar processos de ingestão de dados de diversas fontes (APIs, bancos de dados relacionais e não-relacionais, streaming, etc.).
- Colaborar com Analistas de Negócios, Cientistas de Dados e outras áreas de negócio para entender os requisitos e disponibilizar dados de alta qualidade para consumo.
- Garantir a qualidade, integridade, segurança e governança dos dados em todo o ciclo de vida, aplicando as melhores práticas do mercado.
- Otimizar o desempenho de jobs Spark ou similares e consultas SQL no ambiente Databricks, Delta Lake ou similares.
- Documentar as soluções de dados, arquiteturas e fluxos de trabalho.
- (Para Sênior) Atuar como referência técnica, mentorar membros da equipe e liderar definições de arquitetura de dados.
Requirements and skills
💡 Requerimentos e Qualificações
Para esta posição, esperamos que você tenha um perfil proativo, colaborativo e com forte capacidade de resolução de problemas.
Obrigatórias
- Experiência sólida (Pleno) ou avançada (Sênior) atuando como Engenheiro(a) de Dados.
- Proficiência em SQL para manipulação e consulta de grandes volumes de dados.
- Conhecimento em Python aplicado a dados.
- Experiência prática e comprovada com o ecossistema Databricks (Notebooks, Delta Lake, Spark SQL, Jobs) ou similares.
- Sólidos conhecimentos em modelagem de dados (Dimensional, Data Warehouse) e conceitos de Data Lake e Data Lakehouse.
- Experiência na construção, orquestração e monitoramento de pipelines de dados (ETL/ELT).
- Experiência com pelo menos uma plataforma de nuvem (AWS, Azure ou GCP).
- Conhecimento em controle de versão (Git).
Additional information
Diferenciais
- Experiência anterior na implementação de arquitetura Medallion (Bronze/Silver/Gold).
- Experiência com ferramentas de governança de dados, especialmente Databricks Unity Catalog.
- Conhecimento em práticas de DataOps/DevOps (CI/CD, Terraform, etc.) aplicadas a pipelines de dados.
- Experiência com ferramentas de orquestração de dados (ex: Airflow, Azure Data Factory, Mage, etc.).
- Conhecimento em ingestão de dados em streaming (ex: Kafka, Spark Structured Streaming).
- Conhecimento em ferramentas de Business Intelligence (Power BI, Tableau, Metabase, etc.) para entender o consumo final dos dados.
🌟 Por que se juntar a nós?
- Trabalho 100% Remoto com flexibilidade de horário.
- Viagens eventuais à matriz para integração, planejamento e encontros estratégicos (custeadas pela empresa).
- Ambiente colaborativo e com autonomia, onde sua voz é ouvida e você tem liberdade para propor e implementar novas soluções.
- Propósito claro e a chance de construir uma área estratégica do zero, deixando seu legado.
- Oportunidades reais de evolução e crescimento de carreira em uma empresa em expansão.
Benefícios:
🍞 Vale Alimentação;
🚌 Vale-transporte;
💊 Plano de Saúde Unimed Nacional;
💬 Atendimento Psógico;
🔒 Seguro de Vida;
🎁 Day Off no mês de aniversário;
14º 15º;
Participação nos Resultados;