Ativa os alertas de emprego por e-mail!

Engenheiro de Dados Senior GCP

Caderno Nacional

Curitiba

Teletrabalho

BRL 20.000 - 80.000

Tempo integral

Hoje
Torna-te num dos primeiros candidatos

Resumo da oferta

Uma empresa de mídia em Curitiba busca um profissional para desenvolver e manter pipelines de dados escaláveis, garantindo a eficiência e segurança do ecossistema de dados. Candidatos devem ter experiência em GCP, conhecimento em Python e SQL, além de boas práticas de controle de acesso e criptografia. A capacidade de trabalhar de forma independente e colaborar em equipes distribuídas é essencial.

Serviços

Colaboração eficiente em equipes multidisciplinares
Oportunidade de propor melhorias

Qualificações

  • Experiência em cloud platform (GCP) com habilidades em BigQuery, Dataflow, Pub/Sub e Cloud Storage.
  • Conhecimento avançado em Python, SQL e Apache Beam.
  • Orquestração Apache Airflow (Cloud Composer) para workflows automatizados.
  • Infraestrutura como Código (IaC) com Terraform e GitHub Actions.
  • Modelagem de dados analíticos com Data Lake e Data Warehouse.
  • Boas práticas de controle de acesso e segurança.

Responsabilidades

  • Desenvolver e manter pipelines de dados escaláveis e robustos.
  • Garantir a governança e eficiência do ecossistema de dados.
  • Colaborar com equipes multidisciplinares e geograficamente distribuídas.

Conhecimentos

Cloud platform (GCP)
BigQuery
Dataflow
Pub/Sub
Cloud Storage
Cloud Composer (Airflow)
Python
SQL
Apache Beam
Apache Airflow
Terraform
GitHub Actions
Data Lake
Data Warehouse
Data Vault
Git
Docker
Descrição da oferta de emprego
Atividades

Será responsável pelo desenvolvimento e manutenção de pipelines de dados escaláveis e robustos, garantindo a governança, segurança e eficiência do ecossistema de dados da empresa.

Requisitos e Qualificações
  • Experiência em cloud platform (GCP) com habilidades em BigQuery, Dataflow, Pub/Sub, Cloud Storage, Cloud Composer (Airflow), IAM
  • Conhecimento avançado em linguagens Python, SQL e Apache Beam
  • Orquestração Apache Airflow (Cloud Composer) e workflows automatizados com CI/CD
  • Infraestrutura como Código (IaC) com Terraform, Cloud Build e GitHub Actions
  • Modelagem de dados analíticos, Data Lake, Data Warehouse e Data Vault
  • Boas práticas de controle de acesso, mascaramento, criptografia e DLP
  • Ferramentas DevOps/DataOps como Git, Docker e monitoramento de pipelines
Benefícios
  • Capacidade de trabalhar com independência e tomar iniciativa para resolver problemas e sugerir melhorias
  • Colaboração eficiente com equipes multidisciplinares e distribuídas geograficamente
  • Pensamento analítico para entender e resolver problemas complexos de dados
  • Adaptabilidade em ambientes dinâmicos e tecnologias em constante evolução
  • Organização e gestão de tempo para gerenciar múltiplas tarefas e prioridades simultaneamente
  • Mentalidade de dono com atitude de responsabilidade, comprometimento e foco em resultados

Dias da Semana: Não Informado

Horário / Período: Não Informado

Os interessados devem se candidatar através do portal Caderno Nacional

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.