O que buscamos: Profissional que atue com Engenharia de Dados GCP em atuação remota.
Responsabilidades:
- Projetar e implementar pipelines de dados eficientes e escaláveis, adequados a diferentes cenários de negócio (Data Lake, Data Warehouse, Data Mart);
- Criar e manter pipelines de ingestão e transformação de dados em ambientes GCP (BigQuery, Dataflow, Dataproc, Pub/Sub, Cloud Storage);
- Definir padrões de modelagem relacional e dimensional (star schema, snowflake, Data Vault, etc.), com foco em performance e usabilidade;
- Atuar junto a áreas de negócio para traduzir requisitos em modelos de dados claros e consistentes;
- Assegurar qualidade, governança, segurança e compliance em todo o ciclo de vida dos dados;
- Monitorar e otimizar custos e performance em nuvem.
Requisitos e Qualificações:
- Experiência avançada em modelagem de dados (conceitual, lógica e física), especialmente em ambientes analíticos;
- Conhecimento profundo em SQL e boas práticas de design para Data Warehouse/BigQuery;
- Experiência com linguagens como Python e Spark para processamento de dados;
- Domínio do ecossistema GCP (BigQuery, Dataflow, Dataproc, Pub/Sub, Cloud Storage, Composer);
- Vivência em práticas de CI/CD, versionamento e automação de pipelines;
- Conhecimento de arquiteturas modernas de dados (data mesh, lakehouse, streaming).
Descrição comportamental:
Procuramos uma pessoa que:
- Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
- Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
- Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
- Tenha habilidades de resolução de problemas;
- Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
- Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.
Big enough to deliver – small enough to care.
#VempraGFT
#VamosVoarJuntos
#ProudToBeGFT