Engenheiro de dados
São Paulo, São Paulo Innvo Financial Tech
Descrição Do Trabalho
A Innvo está em busca de um Engenheiro de Dados apaixonado por tecnologia e inovação. Se você tem experiência comprovada em projetos que integram boas práticas e arquiteturas complexas e deseja fazer parte de uma equipe dinâmica e inovadora, venha nos ajudar a criar soluções de ponta para nossos clientes.
CLT Full, São Paulo - SP.
Linkedin atualizado, dedicação exclusiva
Responsabilidades:
- Desenvolver e otimizar pipelines de dados para garantir o fluxo contínuo e a qualidade das informações no ambiente de produção.
- Integrar dados de diversas fontes, incluindo APIs externas, sistemas internos, bancos de dados relacionais e não relacionais.
- Colaborar com times de produto, ciência de dados e análise de negócios para fornecer soluções escaláveis e eficientes.
- Manter e aprimorar as infraestruturas de dados, garantindo a confiabilidade, segurança e performance.
- Trabalhar com tecnologias de big data, como Hadoop, Spark, Kafka, entre outras, para lidar com grandes volumes de dados transacionais e analíticos.
- Garantir que os dados estejam formatados e limpos, utilizando práticas como ETL/ELT, processamento de dados em batch e stream.
- Monitorar e resolver problemas relacionados à ingestão de dados, performance de consultas e disponibilidade dos sistemas de dados.
- Implementar boas práticas de versionamento, documentação e controle de mudanças no fluxo de dados.
- Garantir que os dados estejam conformes com as regulamentações de segurança e compliance, especialmente no setor financeiro.
Requisitos:
- Experiência prévia de 4 a 5 anos como Engenheiro de Dados, preferencialmente em empresas do mercado financeiro ou fintechs.
- Bacharelado em Ciência da Computação, Engenharia, Estatística, Matemática ou áreas correlatas.
- Conhecimento avançado em SQL e em bancos de dados relacionais e não relacionais (ex: PostgreSQL, MySQL, MongoDB, Cassandra, etc.).
- Experiência com ETL/ELT, incluindo ferramentas como Apache NiFi, Talend, Airflow ou dbt.
- Conhecimento de ferramentas de Big Data (ex: Hadoop, Spark, Kafka).
- Experiência com processamento de dados em batch e stream, com boas práticas de performance.
- Familiaridade com Python e/ou Java para manipulação de dados e desenvolvimento de scripts.
- Experiência com cloud computing (ex: AWS, Google Cloud, Azure) e serviços de armazenamento de dados como S3, BigQuery, Redshift ou Snowflake.
- Conhecimento de Docker e Kubernetes é um diferencial para deploy e orquestração de pipelines.
- Compreensão de conceitos de segurança de dados, incluindo criptografia, autenticação e compliance regulatório, como LGPD, GDPR, etc.
- Habilidade em criar e otimizar consultas e procedimentos armazenados.
Inglês técnico para leitura de documentação e comunicação com times internacionais (caso necessário).
- Experiência com análise de dados financeiros, como dados de transações bancárias, investimentos, indicadores financeiros, etc.
- Experiência com data lakes e data warehouses.
- Familiaridade com ferramentas de visualização de dados, como Power BI, Tableau, Looker ou Grafana.
- Habilidade em análise de dados e conhecimento básico de técnicas de Machine Learning.
- Conhecimento de frameworks de orquestração de fluxo de dados como Apache Airflow ou Prefect.
- Salário competitivo.
- Plano de saúde e odontológico.
- Vale-refeição e/ou vale-alimentação.
- Oportunidades de crescimento profissional e desenvolvimento de habilidades.
- Ambiente de trabalho flexível e inclusivo.
Engenheiro de dados
São Paulo, São Paulo Niteo Technologies
Descrição Do Trabalho
Estamos em busca de um(a) Engenheiro(a) de Dados Sênior para atuar em projetos estratégicos, sendo protagonista na construção de soluções técnicas que sustentem decisões baseadas em dados. Se você é apaixonado por tecnologia, tem perfil consultivo e gosta de trabalhar em ambientes colaborativos e dinâmicos, essa vaga é para você!
Responsabilidades
- Criar e manter modelos de dados eficientes (dimensional e normalizada) para análises avançadas.
- Garantir qualidade, segurança e governança dos dados com validações e monitoramento contínuo.
- Automatizar processos com ferramentas DevOps como GitHub Actions ou Azure DevOps.
- Traduzir requisitos de negócio em soluções técnicas escaláveis e eficientes.
- Participar de decisões arquiteturais sobre a plataforma de dados (DataOps, segurança, escalabilidade).
- Realizar análises exploratórias (EDA) para identificar padrões e melhorar entregas analíticas.
Engenheiro de Dados Sênior
São Paulo, São Paulo Privacy
Descrição Do Trabalho
A Privacy é a maior rede social de conteúdo digital da América Latina. Nascemos para conectar tecnologia ao poder criativo das pessoas. Somos um organismo vivo, onde cada pessoa é uma célula pulsante de abundância, liberdade e autorrealização.
Aqui performance tem propósito, estrutura tem calor humano e ambição anda junto com ética.
Nosso produto é uma rede social líder no Brasil de monetização de conteúdo, visando a expansão internacional. Esse crescimento exige um(a) profissional que una visão técnica sistêmica com capacidade de execução em um ambiente de alta escala e impacto.
Responsabilidades
- Projetar, implementar e gerenciar pipelines de dados e ML em ambientes cloud, com foco em AWS SageMaker e Snowflake;
- Automatizar fluxos de treinamento, versionamento e deployment de modelos (CI/CD de ML);
- Criar e manter infraestrutura escalável para MLOps, incluindo monitoramento de desempenho e rastreabilidade de modelos;
- Colaborar com cientistas de dados na preparação, versionamento e disponibilização de datasets para modelagem;
- Garantir boas práticas de segurança, qualidade e governança de dados;
- Integrar e otimizar processos de ingestão em larga escala, tanto batch quanto streaming;
- Participar ativamente do desenho de arquiteturas de dados e IA em ambientes híbridos e multicloud.
Pensamento sistêmico e foco em entrega de valor: profissionais que enxergam o todo, priorizam impacto e entregam com consistência.
Inovação e automação com propósito: pessoas movidas por curiosidade técnica, que buscam simplificar o complexo, escalar processos e transformar dados em inteligência real.
Equilíbrio entre profundidade técnica e visão estratégica: quem domina a execução hands‑on, mas também influencia decisões arquiteturais e estratégicas.
Requisitos
- +7 anos de experiência comprovada em Engenharia de Dados;
- Sólida experiência em AWS (SageMaker, Lambda, Glue, Step Functions, S3, ECS/EKS);
- Domínio em Snowflake (modelagem, performance tuning, data sharing);
- Conhecimento avançado em MLOps (CI/CD de modelos, MLflow, Kubeflow ou similares);
- Proficiência em Python (pandas, pyspark, boto3), SQL e infraestrutura como código (Terraform ou CloudFormation);
- Experiência em ferramentas de orquestração (Airflow, Prefect ou Dagster);
- Familiaridade com boas práticas de DataOps e observabilidade (monitoramento, logging, alertas).
Diferenciais
- Experiência em governança de modelos e dados (lineage, RBAC, tagging);
- Conhecimentos em Dremio, Databricks ou Redshift;
- Vivência em arquiteturas Data Mesh ou orientadas a domínios;
- Atuação prévia em times com metodologia ágil e cultura DevOps.
Modelo de contratação e ambiente
- Contratação PJ
- Ambiente colaborativo, com liberdade técnica, autonomia de decisão e foco em inovação e impacto real
- Estrutura horizontal, onde cada pessoa tem espaço para propor, evoluir e construir o futuro da plataforma
- Plano de saúde e Odontológico (disponível para CNPJs com mais de 6 meses)
- TotalPass – academias, estúdios e bem-estar
- Alura – plataforma de aprendizado contínuo
- Ambiente dinâmico, com forte cultura de aprendizado e crescimento profissional
Estamos construindo um ecossistema de dados que sustenta o crescimento de uma das maiores plataformas digitais da América Latina.
Aqui, você vai projetar pipelines em escala continental, colaborar com cientistas e engenheiros de alto nível, e entregar soluções que realmente movem o negócio.
Se você quer fazer parte de um time que une dados, inteligência e propósito, essa é a sua oportunidade.
Vem construir o futuro dos dados com a gente!
Engenheiro de Dados Sênior/ AWS
São Paulo, São Paulo Zuri
Descrição Do Trabalho
Responsabilidades
- Projetar e implementar arquiteturas de dados em ambiente AWS (Data Lake / Data Mesh).
- Desenvolver e manter pipelines de ETL/ELT utilizando serviços como Glue, Lambda e Step Functions, S3, Athena, Redshift.
- Garantir qualidade, segurança e governança dos dados.
- Otimizar consultas e processos para grandes volumes de dados.
- Lidar com várias prioridades concorrentes, em um ambiente de constantes mudanças.
- Sugerir serviços AWS que agreguem valor ao ambiente de dados
Requisitos Técnicos
- Experiência sólida (5+ anos) em engenharia de dados.
- Conhecimento em camadas de lakehouse / data mesh.
- Forte conhecimento em Python, Spark e SQL.
- Experiência com ferramentas de orquestração (Step Functions e/ou Airflow).
- Conhecimento em modelagem de dados, Data Lake e Data Warehouse.
Diferenciais
- Migração de sistemas legados para AWS
- Experiência prática em consumo e processamento de arquivos no formato json
- Conhecimento de seguros
Contratação: PJ
Hibrido no Morumbi - SP
Engenheiro de Dados - Snowflake & AI-Driven Development
São Paulo, São Paulo Martinelli Advogados
Descrição Do Trabalho
Sobre o Projeto: Estamos construindo uma plataforma inovadora de inteligência tributária para um escritório de advocacia com 300+ profissionais de Tax. A solução processará obrigações acessórias, XMLs fiscais e cálculos tributários complexos, utilizando Snowflake como data lakehouse, Next.js/React no frontend e backend na Azure.
O que você fará:
Fase 1 (Arquitetura & Implementação):
- Desenhar e implementar a arquitetura de dados no Snowflake (modelagem, pipelines, otimização)
- Definir estratégias de ingestão de XMLs fiscais e obrigações acessórias
- Desenvolver transformações e modelos usando dbt (Data Build Tool)
- Estabelecer padrões de governança, segurança e performance
- Trabalhar em estreita colaboração com o engenheiro backend para integração via API
Fase 2+ (Engenharia de Dados - contínuo):
- Implementar pipelines para novos produtos (ressarcimento ICMS-ST, exclusão ICMS de base PIS/COFINS, etc.)
- Otimizar performance de queries complexas e reduzir custos de compute
- Desenvolver testes automatizados e CI/CD para dbt e objetos Snowflake
- Evoluir a arquitetura conforme novas demandas
Requisitos Técnicos Obrigatórios:
- 5+ anos de experiência com Engenharia de Dados
- Experiência sólida com Snowflake (SnowSQL, Snowpipe, Tasks, Streams, data sharing)
- Experiência com dbt (Data Build Tool) - modelagem, testes, documentation
- Proficiência em SQL avançado e modelagem dimensional/Data Vault
- Experiência com Python para pipelines de dados
- Experiência com controle de versão (Git) e práticas DevOps
- Experiência prévia com dados fiscais/tributários brasileiros (SPED, NFe, EFD-ICMS/IPI)
- Certificação Snowflake (SnowPro Core ou superior)
- Experiência com orquestração (Airflow, Dagster, Prefect)
- Experiência prática usando LLMs e ferramentas de IA no desenvolvimento diário
- Familiaridade com Cursor e outras ferramentas de IA
- Conhecimento de LangChain e frameworks de agentes de IA
- Capacidade de orquestrar trabalho usando IA e focar em arquitetura e revisão crítica
- Mindset de automação e uso de IA para acelerar desenvolvimento, documentação e troubleshooting