Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Engenheiro De Dados Gcp

Hvar

Rio Branco

Presencial

BRL 20.000 - 80.000

Tempo integral

Há 7 dias
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia em Rio Branco (AC) busca um Engenheiro de Dados para projetar e otimizar pipelines, garantindo a qualidade e confiabilidade dos dados. O candidato ideal deve ter experiência em SQL, Python, BigQuery e plataformas em nuvem como AWS ou Azure, e habilidades analíticas. A função envolve colaboração com equipes multifuncionais e aplicação de boas práticas de engenharia para garantir a segurança e desempenho dos dados.

Qualificações

  • Experiência comprovada em engenharia de dados, com foco na construção de pipelines.
  • Domínio em SQL, Python e Spark.
  • Experiência com plataformas de dados em nuvem.

Responsabilidades

  • Projetar e desenvolver pipelines ETL / ELT.
  • Implementar frameworks de ingestão de dados.
  • Garantir qualidade e consistência dos dados.

Conhecimentos

SQL
Python
Spark
Inglês fluente
Trabalho em equipe

Formação académica

Graduação em Ciência da Computação
Sistemas de Informação
Engenharia ou áreas correlatas

Ferramentas

Google Cloud Platform
AWS
Azure
Airflow
Docker
Kubernetes
Descrição da oferta de emprego

Estamos em busca de um Engenheiro de Dados com sólida experiência na construção e otimização de pipelines de dados. Este profissional terá papel fundamental no desenho, desenvolvimento e manutenção de soluções de integração de dados confiáveis, escaláveis e seguras. O candidato ideal deve ter forte conhecimento em plataformas de nuvem, práticas modernas de engenharia de dados e perfil analítico para garantir o fluxo eficiente de dados na organização.

Responsabilidades Principais

Projetar, desenvolver e manter pipelines ETL / ELT para ingestão, transformação e entrega de dados estruturados e não estruturados.

Implementar frameworks de ingestão de dados a partir de múltiplas fontes (bancos de dados, APIs, arquivos, streaming etc.).

Garantir qualidade, consistência e confiabilidade dos dados por meio de validação, monitoramento e testes automatizados.

Otimizar fluxos de processamento de dados visando custo e performance.

Colaborar com Cientistas de Dados, Analistas e áreas de negócio para fornecer datasets limpos, confiáveis e bem documentados.

Trabalhar com serviços nativos de nuvem (ex. : BigQuery, Dataproc, Dataflow, Databricks, Snowflake) para implementar arquiteturas escaláveis.

Aplicar boas práticas de CI / CD, versionamento e Infraestrutura como Código (IaC) em pipelines de dados.

Assegurar conformidade com normas de segurança, governança e privacidade (ex. : PII, GDPR, LGPD).

Qualificações Necessárias

Graduação em Ciência da Computação, Sistemas de Informação, Engenharia ou áreas correlatas.

Experiência comprovada em engenharia de dados, com foco em construção de pipelines.

Domínio em SQL, Python e Spark.

Experiência com plataformas de dados em nuvem (Google Cloud Platform, AWS ou Azure).

Sólidos conhecimentos em modelagem de dados, data warehouse e arquiteturas lake / lakehouse.

Vivência com ferramentas de orquestração (Airflow, Cloud Composer, Prefect, Dagster).

Familiaridade com práticas de DevOps (Git, pipelines CI / CD, Terraform ou similares).

Diferenciais Desejáveis

Experiência com streaming em tempo real (Kafka, Pub / Sub, Kinesis).

Conhecimentos em containerização (Docker, Kubernetes).

Vivência com pipelines de machine learning e MLOps.

Experiência com catálogos de dados, metadata management e ferramentas de governança.

Competências Comportamentais

Perfil analítico e orientado à resolução de problemas.

Capacidade de comunicar conceitos técnicos complexos de forma clara a públicos não técnicos.

Trabalho em equipe, postura proativa e colaborativa.

  • Inglês fluente (escrito e falado);

espanhol será considerado um diferencial.

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.