
Ativa os alertas de emprego por e-mail!
Cria um currículo personalizado em poucos minutos
Consegue uma entrevista e ganha mais. Sabe mais
Uma empresa em Tecnologia da Informação está buscando um Engenheiro de Dados em Jaraguá do Sul. O profissional será responsável pela construção e otimização de pipelines de dados, assegurando a qualidade e confiabilidade dos dados na organização. O candidato ideal deve ter conhecimentos em SQL, Python e experiência com plataformas de nuvem como Google Cloud e AWS. Se você possui um perfil analítico e está pronto para desafios em engenharia de dados, essa pode ser a oportunidade ideal.
Estamos em busca de um Engenheiro de Dados com sólida experiência na construção e otimização de pipelines de dados.
Este profissional terá papel fundamental no desenho, desenvolvimento e manutenção de soluções de integração de dados confiáveis, escaláveis e seguras.
O candidato ideal deve ter forte conhecimento em plataformas de nuvem, práticas modernas de engenharia de dados e perfil analítico para garantir o fluxo eficiente de dados na organização.
Projetar, desenvolver e manter pipelines ETL / ELT para ingestão, transformação e entrega de dados estruturados e não estruturados.
Implementar frameworks de ingestão de dados a partir de múltiplas fontes (bancos de dados, APIs, arquivos, streaming etc.).
Garantir qualidade, consistência e confiabilidade dos dados por meio de validação, monitoramento e testes automatizados.
Otimizar fluxos de processamento de dados visando custo e performance.
Colaborar com Cientistas de Dados, Analistas e áreas de negócio para fornecer datasets limpos, confiáveis e bem documentados.
Trabalhar com serviços nativos de nuvem (ex. BigQuery, Dataproc, Dataflow, Databricks, Snowflake) para implementar arquiteturas escaláveis.
Aplicar boas práticas de CI / CD, versionamento e Infraestrutura como Código (IaC) em pipelines de dados.
Assegurar conformidade com normas de segurança, governança e privacidade (ex. PII, GDPR, LGPD).
Graduação em Ciência da Computação, Sistemas de Informação, Engenharia ou áreas correlatas.
Experiência comprovada em engenharia de dados, com foco em construção de pipelines.
Domínio em SQL, Python e Spark.
Experiência com plataformas de dados em nuvem (Google Cloud Platform, AWS ou Azure).
Sólidos conhecimentos em modelagem de dados, data warehouse e arquiteturas lake / lakehouse.
Vivência com ferramentas de orquestração (Airflow, Cloud Composer, Prefect, Dagster).
Familiaridade com práticas de DevOps (Git, pipelines CI / CD, Terraform ou similares).
Experiência com streaming em tempo real (Kafka, Pub / Sub, Kinesis).
Conhecimentos em containerização (Docker, Kubernetes).
Vivência com pipelines de machine learning e MLOps.
Experiência com catálogos de dados, metadata management e ferramentas de governança.
Perfil analítico e orientado à resolução de problemas.
Capacidade de comunicar conceitos técnicos complexos de forma clara a públicos não técnicos.
Trabalho em equipe, postura proativa e colaborativa.