Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Engenheiro De Dados

Beesby

Pouso Alegre

Presencial

BRL 20.000 - 80.000

Tempo integral

Há 5 dias
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia de dados em Pouso Alegre está buscando um profissional para desenvolver e operar pipelines escaláveis com Python, Spark e Deltalake. O papel é hands-on e exige autonomia, focando no uso de métodos ágeis e comunicação clara com equipes técnicas e de negócios. É necessário ter experiência em SQL avançado, modelagem de dados e desenvolvimento de pipelines, com diferencial para conhecimentos em Superset e práticas de Data Visualization. O ambiente valoriza soluções open-source e práticas modernas de desenvolvimento.

Qualificações

  • Experiência em SQL avançado e modelagem.
  • Habilidade em Python, Spark, Deltalake e Arquitetura Medalhão.
  • Capacidade de desenvolver pipelines em Python e Airflow.
  • Experiência com versionamento usando GitHub e práticas de CI/CD.
  • Capacidade de se comunicar claramente com públicos técnicos e de negócio.

Responsabilidades

  • Desenvolver e operar pipelines escaláveis baseados em Python.
  • Modelar dados usando uma arquitetura medalhão, otimizando custo e performance.
  • Otimizar consultas, partições, índices e storage usando Parquet e Delta.
  • Monitorar saúde e custos dos pipelines, documentando arquitetura e fluxos.

Conhecimentos

SQL avançado e modelagem
Python
Spark
Deltalake
Métodos ágeis

Ferramentas

GitHub
Airflow
Superset
Descrição da oferta de emprego

segue certinha a vaga : Procuramos um profissional para ajudar a evolução do nosso ecossistema de dados baseado DeltaLake / Spark / Superset, governança, qualidade e performance. Papel hands-on, autonomia e impacto direto no negócio.

Responsabilidades
  • Desenvolver e operar pipelines escaláveis baseados em Python.
  • Modelar dados, usando um arquitetura medalhão, otimizando custo e performance.
  • Otimizar consultas, partições, índices e storage (Parquet / Delta).
  • Monitorar saúde / custos dos pipelines e documentar arquitetura, fluxos e dicionário de dados.
Requisitos obrigatórios
  • SQL avançado e modelagem.
  • Python, Spark, Deltalake e Arquitetura Medalhão.
  • Desenvolvimento de pipelines em python e Airflow;
  • Versionamento com GitHub e CI / CD.
  • Métodos ágeis e comunicação clara com públicos técnicos e de negócio.
Diferenciais
  • Conhecimentos de Superset (implantação / uso).
  • Conhecimento de Lakehouse.
  • Boas práticas de Data Viz.
  • Inglês técnico.

Importante é menos foco microsoft e mais foco opensource, python, spark, airdlow, etc

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.