Ativa os alertas de emprego por e-mail!

Analista de Dados GCP - 128349

GFT Group

Barueri

Presencial

BRL 80.000 - 120.000

Tempo integral

Hoje
Torna-te num dos primeiros candidatos

Resumo da oferta

Uma empresa de tecnologia busca um profissional em Análise de Dados em São Paulo. O candidato deve ter sólida experiência em GCP e capacidade de estruturar soluções escaláveis para apoiar decisões estratégicas. As responsabilidades incluem projetar pipelines de dados e assegurar qualidade em todo o ciclo de vida dos dados. Valorizamos pessoas colaborativas e criativas que estejam dispostas a inovar.

Qualificações

  • Experiência em modelagem de dados em ambientes analíticos.
  • Conhecimento em boas práticas de design para Data Warehouse/BigQuery.
  • Experiência com Python e Spark para processamento de dados.

Responsabilidades

  • Projetar e implementar pipelines de dados eficientes e escaláveis.
  • Criar e manter pipelines de ingestão e transformação de dados em GCP.
  • Definir padrões de modelagem relacional e dimensional.

Conhecimentos

Modelagem de dados
SQL
Python
Spark
CI/CD

Ferramentas

GCP (BigQuery, Dataflow, Dataproc, Pub/Sub, Cloud Storage, Composer)
Descrição da oferta de emprego

O que buscamos:

Profissional com sólida experiência em Análise de dados, domínio do ecossistema GCP e capacidade de estruturar soluções escaláveis e seguras que apoiem decisões estratégicas de negócio.

Responsabilidades:

Projetar e implementar pipelines de dados eficientes e escaláveis, adequados a diferentes cenários de negócio (Data Lake, Data Warehouse, Data Mart);
Criar e manter pipelines de ingestão e transformação de dados em ambientes GCP (BigQuery, Dataflow, Dataproc, Pub/Sub, Cloud Storage);
Definir padrões de modelagem relacional e dimensional (star schema, snowflake, Data Vault, etc.), com foco em performance e usabilidade;
Atuar junto a áreas de negócio para traduzir requisitos em modelos de dados claros e consistentes;
Assegurar qualidade, governança, segurança e compliance em todo o ciclo de vida dos dados;
Monitorar e otimizar custos e performance em nuvem.

Requisitos e Qualificações:

Experiência em modelagem de dados (conceitual, lógica e física), especialmente em ambientes analíticos;
Conhecimento em SQL e boas práticas de design para Data Warehouse/BigQuery;
Experiência com linguagens como Python e Spark para processamento de dados;
Domínio do ecossistema GCP (BigQuery, Dataflow, Dataproc, Pub/Sub, Cloud Storage, Composer);
Vivência em práticas de CI/CD, versionamento e automação de pipelines;
Conhecimento de arquiteturas modernas de dados (data mesh, lakehouse, streaming).

Descrição comportamental:

Procuramos uma pessoa que:

  • Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
  • Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
  • Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
  • Tenha habilidades de resolução de problemas;
  • Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
  • Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.

Big enough to deliver – small enough to care.

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.