Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Engenheiro De Dados Gcp

HVAR

Manaus

Presencial

BRL 20.000 - 80.000

Tempo integral

Há 7 dias
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia em Manaus está buscando um Engenheiro de Dados com sólida experiência em construção e otimização de pipelines de dados. O profissional será responsável por projetar e manter soluções de integração de dados, garantindo eficiência e segurança no fluxo de informações. É essencial ter fortes conhecimentos em SQL, Python e plataformas de dados em nuvem. A fluência em inglês é necessária, e familiaridade com práticas de DevOps será um diferencial. O cargo oferece oportunidades de engajamento em projetos inovadores.

Qualificações

  • Experiência comprovada em engenharia de dados, com foco em construção de pipelines.
  • Experiência com plataformas de dados em nuvem (Google Cloud Platform, AWS ou Azure).
  • Conhecimentos em modelagem de dados, data warehouse e arquiteturas lake/lakehouse.

Responsabilidades

  • Projetar, desenvolver e manter pipelines ETL/ELT para ingestão e entrega de dados.
  • Implementar frameworks de ingestão de dados a partir de múltiplas fontes.
  • Otimizar fluxos de processamento de dados visando custo e performance.
  • Colaborar com Cientistas de Dados e Analistas para fornecer datasets confiáveis.
  • Aplicar boas práticas de CI/CD em pipelines de dados.

Conhecimentos

SQL
Python
Spark
Domínio em engenharia de dados
Familiaridade com práticas de DevOps
Modelagem de dados

Formação académica

Graduação em Ciência da Computação
Sistemas de Informação
Engenharia ou áreas correlatas

Ferramentas

Airflow
Google Cloud Platform
AWS
Azure
Docker
Kubernetes
Descrição da oferta de emprego

Estamos em busca de um Engenheiro de Dados com sólida experiência na construção e otimização de pipelines de dados. Este profissional terá papel fundamental no desenho, desenvolvimento e manutenção de soluções de integração de dados confiáveis, escaláveis e seguras. O candidato ideal deve ter forte conhecimento em plataformas de nuvem, práticas modernas de engenharia de dados e perfil analítico para garantir o fluxo eficiente de dados na organização.

Responsabilidades Principais
  • Projetar, desenvolver e manter pipelines ETL / ELT para ingestão, transformação e entrega de dados estruturados e não estruturados.
  • Implementar frameworks de ingestão de dados a partir de múltiplas fontes (bancos de dados, APIs, arquivos, streaming etc.).
  • Garantir qualidade, consistência e confiabilidade dos dados por meio de validação, monitoramento e testes automatizados.
  • Otimizar fluxos de processamento de dados visando custo e performance.
  • Colaborar com Cientistas de Dados, Analistas e áreas de negócio para fornecer datasets limpos, confiáveis e bem documentados.
  • Trabalhar com serviços nativos de nuvem (ex. : BigQuery, Dataproc, Dataflow, Databricks, Snowflake) para implementar arquiteturas escaláveis.
  • Aplicar boas práticas de CI / CD, versionamento e Infraestrutura como Código (IaC) em pipelines de dados.
  • Assegurar conformidade com normas de segurança, governança e privacidade (ex. : PII, GDPR, LGPD).
Qualificações Necessárias
  • Graduação em Ciência da Computação, Sistemas de Informação, Engenharia ou áreas correlatas.
  • Experiência comprovada em engenharia de dados, com foco em construção de pipelines.
  • Domínio em SQL, Python e Spark.
  • Experiência com plataformas de dados em nuvem (Google Cloud Platform, AWS ou Azure).
  • Sólidos conhecimentos em modelagem de dados, data warehouse e arquiteturas lake / lakehouse.
  • Vivência com ferramentas de orquestração (Airflow, Cloud Composer, Prefect, Dagster).
  • Familiaridade com práticas de DevOps (Git, pipelines CI / CD, Terraform ou similares).
Diferenciais Desejáveis
  • Experiência com streaming em tempo real (Kafka, Pub / Sub, Kinesis).
  • Conhecimentos em containerização (Docker, Kubernetes).
  • Vivência com pipelines de machine learning e MLOps.
  • Experiência com catálogos de dados, metadata management e ferramentas de governança.
Competências Comportamentais
  • Perfil analítico e orientado à resolução de problemas.
  • Capacidade de comunicar conceitos técnicos complexos de forma clara a públicos não técnicos.
  • Trabalho em equipe, postura proativa e colaborativa.
  • Inglês fluente (escrito e falado);
  • espanhol será considerado um diferencial.
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.