
Ativa os alertas de emprego por e-mail!
Uma empresa de tecnologia em São Paulo está em busca de um profissional para integrar o time tech e impulsionar o tratamento de dados. O candidato ideal deve ter fluência em inglês, domínio de Python e experiência com Google Cloud. As principais responsabilidades incluem projetar pipelines de dados, otimizar processos de ETL e colaborar com cientistas de dados. A remuneração varia de R$12.000,00 a R$15.500,00 e o regime de contratação é PJ.
A Volix é a primeira Price & Performance Tech do Brasil. Elevamos a produtividade de nossos clientes através da combinação de práticas de revenue management com o que há de mais novo em machine learning e inteligência artificial.
Somos proativos, transformacionais, verdadeiros e experts. Estamos em busca de grandes talentos que queiram embarcar nessa com a gente. Venha acelerar a sua carreira com o nosso time!
Você integrará o time tech e será responsável por impulsionar nosso tratamento de dados e coletas de múltiplas fontes e promovendo as soluções de precificação e tecnologia oferecidas pela empresa.
Responsabilidades
Projetar, desenvolver e manter pipelines de dados escaláveis e resilientes para ingestão, transformação e armazenamento de dados provenientes de fontes estruturadas e não estruturadas (incluindo web scraping).
Orquestrar e agendar fluxos de dados garantindo eficiência, escalabilidade e tolerância a falhas.
Implementar e manter processos robustos de ETL/ELT para limpeza, normalização e enriquecimento de dados antes do consumo por equipes de Analytics, Pricing, IA/ML e Data Visualization.
Otimizar armazenamento e processamento de dados em bancos SQL (PostgreSQL, MySQL) e NoSQL (MongoDB, BigQuery, ElasticSearch).
Criar e manter frameworks de monitoramento de qualidade de dados, com métricas e alertas automáticos para identificar e corrigir inconsistências.
Implementar práticas de versionamento de código (Git) e versionamento de dados (DVC ou similares) para rastreabilidade e reprodutibilidade dos pipelines.
Automatizar fluxos de trabalho visando escalabilidade, desempenho e confiabilidade operacional.
Trabalhar em estreita colaboração com cientistas de dados e engenheiros de software, garantindo datasets otimizados para modelagem e APIs.
Monitorar continuamente a performance e a qualidade dos pipelines, aplicando ajustes e melhorias contínuas.
Requisitos
Fluência em inglês (escrita e conversação) ambiente com comunicação em nível internacional.
Forte domínio de Python e operação de bancos de dados relacionais.
Conhecimento sólido em arquitetura de dados, modelagem, governança e boas práticas de segurança.
Experiência comprovada em orquestração de workflows e gestão de pipelines de dados.
Experiência prática com ferramentas do Google Cloud Platform (BigQuery, Dataflow, Dataprep, Pub/Sub).
Experiência com versionamento de código (Git) e versionamento de dados (DVC, LakeFS ou similares).
Conhecimento de ferramentas de monitoramento e observabilidade (Prometheus, Grafana, ELK Stack).
Capacidade de troubleshooting avançado em pipelines e sistemas distribuídos.
Habilidade analítica apurada, raciocínio lógico e foco em resultados.
Autonomia, proatividade e colaboração para atuar em ambiente dinâmico.
Diferenciais
Experiência em engenharia de dados aplicada a Machine Learning (feature engineering, data versioning, ML pipelines).
Experiência com DataOps e integração contínua para pipelines de dados.
Participação prévia em projetos de dados em escala global
Regime de contratação PJ;
Remuneração: R$12.000,00 – 15.500,00 ;