Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Engenheiro de Dados PL

Contratação Acelerada

São Paulo

Presencial

BRL 20.000 - 80.000

Tempo parcial

Hoje
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia em São Paulo está em busca de um profissional para integrar o time tech. O candidato ideal deve ter fluência em inglês e forte domínio de Python, além de experiência em desenvolver e manter pipelines de dados para diferentes fontes. Oferecemos uma remuneração competitiva entre R$12.000,00 e R$15.500,00 em regime de contratação PJ e um ambiente colaborativo para crescimento profissional.

Qualificações

  • Fluência em inglês (escrita e conversação).
  • Forte domínio de Python e operação de bancos de dados relacionais.
  • Conhecimento sólido em arquitetura de dados e boas práticas de segurança.
  • Experiência em orquestração de workflows e gestão de pipelines de dados.
  • Experiência prática com GCP e ferramentas relacionadas.
  • Conhecimento de ferramentas de monitoramento e observabilidade.
  • Capacidade de troubleshooting em sistemas distribuídos.
  • Habilidade analítica e raciocínio lógico.
  • Autonomia e colaboração em ambiente dinâmico.

Responsabilidades

  • Projetar e manter pipelines de dados escaláveis.
  • Orquestrar e agendar fluxos de dados.
  • Implementar processos robustos de ETL/ELT.
  • Otimizar armazenamento de dados em bancos SQL e NoSQL.
  • Criar frameworks de monitoramento de qualidade de dados.
  • Implementar práticas de versionamento de código e dados.
  • Automatizar fluxos de trabalho.
  • Trabalhar com cientistas de dados e engenheiros de software.
  • Monitorar performance e qualidade dos pipelines.

Conhecimentos

Fluência em inglês
Dominio de Python
Arquitetura de dados
Experiência em orquestração de workflows
Experiência em ferramentas do Google Cloud Platform
Versionamento de código e dados
Monitoramento e observabilidade
Troubleshooting de pipelines
Habilidade analítica
Autonomia e proatividade

Ferramentas

PostgreSQL
MySQL
MongoDB
BigQuery
ElasticSearch
Git
DVC
Prometheus
Grafana
ELK Stack
Descrição da oferta de emprego
DESCRIÇÃO DA VAGA

A Volix é a primeira Price & Performance Tech do Brasil. Elevamos a produtividade de nossos clientes através da combinação de práticas de revenue management com o que há de mais novo em machine learning e inteligência artificial.

Somos proativos, transformacionais, verdadeiros e experts. Estamos em busca de grandes talentos que queiram embarcar nessa com a gente. Venha acelerar a sua carreira com o nosso time!

Você integrará o time tech e será responsável por impulsionar nosso tratamento de dados e coletas de múltiplas fontes e promovendo as soluções de precificação e tecnologia oferecidas pela empresa.

Responsabilidades
  • Projetar, desenvolver e manter pipelines de dados escaláveis e resilientes para ingestão, transformação e armazenamento de dados provenientes de fontes estruturadas e não estruturadas (incluindo web scraping).
  • Orquestrar e agendar fluxos de dados garantindo eficiência, escalabilidade e tolerância a falhas.
  • Implementar e manter processos robustos de ETL/ELT para limpeza, normalização e enriquecimento de dados antes do consumo por equipes de Analytics, Pricing, IA/ML e Data Visualization.
  • Otimizar armazenamento e processamento de dados em bancos SQL (PostgreSQL, MySQL) e NoSQL (MongoDB, BigQuery, ElasticSearch).
  • Criar e manter frameworks de monitoramento de qualidade de dados, com métricas e alertas automáticos para identificar e corrigir inconsistências.
  • Implementar práticas de versionamento de código (Git) e versionamento de dados (DVC ou similares) para rastreabilidade e reprodutibilidade dos pipelines.
  • Automatizar fluxos de trabalho visando escalabilidade, desempenho e confiabilidade operacional.
  • Trabalhar em estreita colaboração com cientistas de dados e engenheiros de software, garantindo datasets otimizados para modelagem e APIs.
  • Monitorar continuamente a performance e a qualidade dos pipelines, aplicando ajustes e melhorias contínuas.
Requisitos
  • Fluência em inglês (escrita e conversação) ambiente com comunicação em nível internacional.
  • Forte domínio de Python e operação de bancos de dados relacionais.
  • Conhecimento sólido em arquitetura de dados, modelagem, governança e boas práticas de segurança.
  • Experiência comprovada em orquestração de workflows e gestão de pipelines de dados.
  • Experiência prática com ferramentas do Google Cloud Platform (BigQuery, Dataflow, Dataprep, Pub/Sub).
  • Experiência com versionamento de código (Git) e versionamento de dados (DVC, LakeFS ou similares).
  • Conhecimento de ferramentas de monitoramento e observabilidade (Prometheus, Grafana, ELK Stack).
  • Capacidade de troubleshooting avançado em pipelines e sistemas distribuídos.
  • Habilidade analítica apurada, raciocínio lógico e foco em resultados.
  • Autonomia, proatividade e colaboração para atuar em ambiente dinâmico.
Diferenciais
  • Experiência em engenharia de dados aplicada a Machine Learning (feature engineering, data versioning, ML pipelines).
  • Experiência com DataOps e integração contínua para pipelines de dados.
  • Participação prévia em projetos de dados emescalaglobal
BENEFÍCIOS DA VAGA

Regime de contratação PJ;

Remuneração: R$12.000,00 – 15.500,00

INFORMAÇÕES ADICIONAIS

Contrato: PJ

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.