Ativa os alertas de emprego por e-mail!

Engenheiro(a) de Dados Sênior - GCP

Cadastra Performace First

Brasil

Teletrabalho

BRL 20.000 - 80.000

Tempo integral

Hoje
Torna-te num dos primeiros candidatos

Resumo da oferta

Uma empresa de tecnologia está em busca de um(a) Engenheiro(a) de Dados Sênior para liderar a implementação de soluções de dados na nuvem com foco em Google Cloud Platform. O profissional irá projetar pipelines robustos, otimizar o Data Warehouse e garantir a governança dos dados. É necessário conhecimento profundo em Python e SQL, bem como experiência com as ferramentas do GCP. A posição é 100% remota, oferecendo um pacote de benefícios atrativo.

Serviços

Vale alimentação e refeição
Auxílio Home Office
Plano de saúde
Participação nos lucros
Bônus por indicação

Qualificações

  • Experiência sólida como Engenheiro(a) de Dados focado em Google Cloud Platform.
  • Domínio de Python e SQL para soluções em larga escala.
  • Experiência com ferramentas GCP: BigQuery, Dataflow, Cloud Composer.

Responsabilidades

  • Projetar e gerenciar pipelines de dados robustos.
  • Modelar e otimizar o Data Warehouse no Google BigQuery.
  • Implementar ingestão de dados em tempo real com Pub/Sub.

Conhecimentos

Google Cloud Platform
Python
SQL
Dataflow
BigQuery

Ferramentas

Terraform
Apache Airflow
Dataproc (Spark)
Cloud Composer
Cloud Storage
Descrição da oferta de emprego
Overview

Quer fazer a diferença na nova economia e transformar pessoas e negócios para prosperarem? Vem pra Cadastra!

Procuramos um(a) Engenheiro(a) de Dados Sênior, com especialização profunda no ecossistema Google Cloud Platform (GCP), para liderar o design, a construção e a otimização de nossas soluções de dados na nuvem.

Como pessoa de referência para as melhores práticas de engenharia de dados em GCP, seu papel será crucial para criar uma arquitetura de dados escalável, resiliente e de alta performance. Você irá desenvolver frameworks e ferramentas para suportar o crescimento acelerado de um dos nossos clientes, garantindo que toda a organização possa alavancar o poder do BigQuery, Dataflow e Cloud Composer para impulsionar a tomada de decisões.

Esta posição é para atuar de forma 100% remota.

Main responsibilities

No nosso Data Hub você terá o desafio de:

  • Projetar, desenvolver e gerenciar pipelines de dados (ETL/ELT) robustos e escaláveis, utilizando Dataflow, Dataproc (Spark) e/ou Cloud Data Fusion.
  • Modelar, construir e otimizar nosso Data Warehouse e Data Lake no Google BigQuery e Google Cloud Storage, aplicando as melhores práticas de performance e custo.
  • Orquestrar fluxos de trabalho de dados complexos utilizando o Cloud Composer (Apache Airflow gerenciado).
  • Implementar a ingestão de dados em tempo real (streaming) com Pub/Sub e Dataflow.
  • Implementar e zelar pela governança, segurança e qualidade dos dados na plataforma GCP, utilizando ferramentas como Dataplex, Data Catalog e Secret Manager.
  • Automatizar o provisionamento e o gerenciamento da infraestrutura de dados (IaC), preferencialmente com Terraform.
  • Monitorar a performance e os custos dos serviços de dados em GCP, propondo e implementando otimizações contínuas.
  • Atuar como referência técnica para o time e para o cliente, colaborando com equipes de Analytics e Ciência de Dados para otimizar o consumo dos dados.
Requirements and skills

O que a Cadastra espera de você:

  • Sólida experiência comprovada como Engenheiro(a) de Dados, com foco profundo no ecossistema Google Cloud Platform.
  • Domínio de Python e SQL aplicados ao desenvolvimento de soluções de engenharia de dados em larga escala.
  • Experiência prática com as principais ferramentas do GCP: BigQuery (modelagem, otimização de queries, particionamento), Dataflow e/ou Dataproc (Spark), Cloud Composer (Airflow) e Cloud Storage.
  • Experiência com automação e práticas de CI/CD (ex: GitHub Actions, Cloud Build) e Infraestrutura como Código (IaC), preferencialmente com Terraform.
  • Vivência com extração de dados via APIs e modelagem de processos ETL/ELT (sanitização, unificação, agregação de dados).

Diferenciais:

  • Certificação Google Cloud Professional Data Engineer.
  • Experiência com ingestão e modelagem de dados de sistemas SAP (ECC, SF) e/ou em domínios de negócio de RH.
  • Experiência com tecnologias de containerização (Docker, Kubernetes/GKE) no contexto de aplicações de dados.
  • Conhecimento em implementação de ingestão de dados via streaming com Pub/Sub.
  • Experiência com metodologias ágeis de desenvolvimento.
Additional information

O que oferecemos:

  • Vale alimentação e refeição no cartão FLASH
  • Auxílio Home Office no cartão FLASH
  • Plano de saúde de acordo com a sua localidade
  • Plano odontológico de acordo com a sua localidade
  • Day off de aniversário + valor depositado no cartão FLASH
  • Licença-maternidade e paternidade estendida
  • Participação nos lucros (PLR)
  • Seguro de vida
  • Auxílio creche
  • Bônus por indicação
  • Vale-transporte
  • Clude | Plataforma de Saúde
  • Total Pass
  • CRM Bônus
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.

Ofertas semelhantes