Ativa os alertas de emprego por e-mail!

Engenheiro de Dados PL

Contratação Acelerada

São Paulo

Presencial

BRL 20.000 - 80.000

Tempo parcial

Há 30+ dias

Resumo da oferta

Uma empresa de tecnologia em São Paulo está buscando um(a) engenheiro(a) de dados especializado(a) em desenvolver e manter pipelines escaláveis. O candidato ideal deve ter fluência em inglês e forte domínio de Python, além de experiência com ferramentas do Google Cloud Platform. Esta posição oferece um regime de contratação PJ com remuneração entre R$12.000,00 e R$15.500,00.

Qualificações

  • Experiência comprovada em orquestração de workflows e gestão de pipelines de dados.
  • Experiência prática com ferramentas do Google Cloud Platform (BigQuery, Dataflow).
  • Habilidade analítica apurada e foco em resultados.

Responsabilidades

  • Projetar, desenvolver e manter pipelines de dados escaláveis.
  • Implementar e manter processos robustos de ETL/ELT.
  • Automatizar fluxos de trabalho visando escalabilidade.

Conhecimentos

Fluência em inglês
Domínio de Python
Arquitetura de dados
Monitoramento e observabilidade

Ferramentas

Google Cloud Platform
Git
DVC
Descrição da oferta de emprego
DESCRIÇÃO DA VAGA

A Volix é a primeira Price & Performance Tech do Brasil. Elevamos a produtividade de nossos clientes através da combinação de práticas de revenue management com o que há de mais novo em machine learning e inteligência artificial.

Somos proativos, transformacionais, verdadeiros e experts. Estamos em busca de grandes talentos que queiram embarcar nessa com a gente. Venha acelerar a sua carreira com o nosso time!

Você integrará o time tech e será responsável por impulsionar nosso tratamento de dados e coletas de múltiplas fontes e promovendo as soluções de precificação e tecnologia oferecidas pela empresa.

Responsabilidades
Projetar, desenvolver e manter pipelines de dados escaláveis e resilientes para ingestão, transformação e armazenamento de dados provenientes de fontes estruturadas e não estruturadas (incluindo web scraping).
Orquestrar e agendar fluxos de dados garantindo eficiência, escalabilidade e tolerância a falhas.
Implementar e manter processos robustos de ETL/ELT para limpeza, normalização e enriquecimento de dados antes do consumo por equipes de Analytics, Pricing, IA/ML e Data Visualization.
Otimizar armazenamento e processamento de dados em bancos SQL (PostgreSQL, MySQL) e NoSQL (MongoDB, BigQuery, ElasticSearch).
Criar e manter frameworks de monitoramento de qualidade de dados, com métricas e alertas automáticos para identificar e corrigir inconsistências.
Implementar práticas de versionamento de código (Git) e versionamento de dados (DVC ou similares) para rastreabilidade e reprodutibilidade dos pipelines.
Automatizar fluxos de trabalho visando escalabilidade, desempenho e confiabilidade operacional.
Trabalhar em estreita colaboração com cientistas de dados e engenheiros de software, garantindo datasets otimizados para modelagem e APIs.
Monitorar continuamente a performance e a qualidade dos pipelines, aplicando ajustes e melhorias contínuas.

REQUISITOS DA VAGA

Requisitos
Fluência em inglês (escrita e conversação) ambiente com comunicação em nível internacional.
Forte domínio de Python e operação de bancos de dados relacionais.
Conhecimento sólido em arquitetura de dados, modelagem, governança e boas práticas de segurança.
Experiência comprovada em orquestração de workflows e gestão de pipelines de dados.
Experiência prática com ferramentas do Google Cloud Platform (BigQuery, Dataflow, Dataprep, Pub/Sub).
Experiência com versionamento de código (Git) e versionamento de dados (DVC, LakeFS ou similares).
Conhecimento de ferramentas de monitoramento e observabilidade (Prometheus, Grafana, ELK Stack).
Capacidade de troubleshooting avançado em pipelines e sistemas distribuídos.
Habilidade analítica apurada, raciocínio lógico e foco em resultados.
Autonomia, proatividade e colaboração para atuar em ambiente dinâmico.

Diferenciais
Experiência em engenharia de dados aplicada a Machine Learning (feature engineering, data versioning, ML pipelines).
Experiência com DataOps e integração contínua para pipelines de dados.
Participação prévia em projetos de dados em escala global

BENEFÍCIOS DA VAGA

Regime de contratação PJ;

Remuneração: R$12.000,00 – 15.500,00

INFORMAÇÕES ADICIONAIS

Contrato: PJ

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.