Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Engenheiro(A) De Dados - Sênior | Gcp | Bigquery | Dataform

Objective

São Paulo

Presencial

BRL 20.000 - 80.000

Tempo integral

Há 15 dias

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa inovadora está em busca de um(a) Engenheiro(a) de Dados Sênior para trabalhar em projetos estratégicos de automação de indicadores ESG. O candidato ideal terá experiência em Google Cloud Platform, BigQuery e Dataform, com habilidade em Python para integração de dados. A posição é híbrida, permitindo trabalho remoto com visitas mensais ao escritório em São Paulo. Junte-se a uma equipe dinâmica que valoriza a diversidade e a inovação na sustentabilidade corporativa.

Qualificações

  • Experiência sólida em Google Cloud Platform (GCP), com domínio em BigQuery, Dataform e Pub/Sub.
  • Conhecimento em Python, especialmente para automação.
  • Vivência com integração de dados e boas práticas de governança.

Responsabilidades

  • Estruturar pipelines de coleta e transformação de dados ESG.
  • Mapear e documentar fontes, regras de cálculo e integrações.
  • Colaborar com times de negócio e desenvolvimento de APIs.

Conhecimentos

Google Cloud Platform (GCP)
BigQuery
Dataform
Python
Integração de dados de múltiplas origens
Metodologias ágeis
Jira
Descrição da oferta de emprego

Somos ávidos por tecnologia, criatividade e desafios.

Se você gosta de desafios, aprendizado constante e valoriza as conexões pessoais, junte-se a nós!

# Valorizamos a diversidade e acreditamos que ela é fundamental para a inovação e entregas de valor aos nossos clientes. Todas as nossas vagas são destinadas a todas as pessoas, com ou sem deficiência, independentemente de idade, gênero, orientação sexual, etnia, religião ou qualquer outra característica. Se você se identifica com a posição, venha fazer parte do nosso time!

O QUE BUSCAMOS?

Buscamos Engenheiro(a) de Dados, em níveis de carreira Sênior, que queiram trabalhar conosco em um ambiente descontraído e dinâmico, com aprendizado contínuo no desenvolvimento de grandes projetos, junto a grandes clientes nacionais e internacionais. Temos escritórios em Maringá, São Paulo e Chicago (EUA), mas a nossa atuação é remota : por aqui preferimos chamar de anywhere office .

Este é um projeto estratégico voltado à automação de indicadores ESG (Environmental, Social and Governance) , com foco em dados de sustentabilidade corporativa.

ATENÇÃO!

A atuação será híbrida, com idas presenciais de 1 a 2 vezes por mês no bairro Campos Elíseos, em São Paulo / S P, em um ambiente ágil, colaborativo e orientado à entrega de valor.

O QUE ESSE PROFISSIONAL IRÁ FAZER?
  • Estruturar pipelines de coleta, transformação e envio de dados ESG, garantindo qualidade, governança e escalabilidade.
  • Atuar em ambiente Google Cloud Platform (GCP) , com foco em BigQuery , Dataform , Pub / Sub e Cloud Run .
  • Mapear e documentar fontes, regras de cálculo e integrações entre sistemas.
  • Desenvolver e versionar pipelines em Dataform , integrados ao BigQuery , com execuções automatizadas e dependências configuradas.
  • Criar e manter processos de ingestão e enriquecimento de dados, incluindo integrações com APIs externas (ex. : geocodificação).
  • Orquestrar fluxos de dados entre componentes, garantindo conformidade com padrões de arquitetura, segurança e governança.
  • Colaborar com times de negócio, arquitetura e desenvolvimento de APIs em uma abordagem ágil (Scrum / Kanban) .
O QUE É NECESSÁRIO PARA A POSIÇÃO?

Experiência sólida em Google Cloud Platform (GCP) , com domínio em :

  • BigQuery (SQL avançado, modelagem, otimização e controle de custos);
  • Dataform (versionamento Git, parâmetros e jobs agendados);
  • Pub / Sub e Cloud Run (orquestração e integração de eventos).
  • Conhecimento em Python , especialmente para automação e consumo de APIs REST / JSON .
  • Vivência com integração de dados de múltiplas origens (bancos, planilhas, APIs).
  • Experiência prática com metodologias ágeis e uso de Jira ou ferramentas similares.
  • Familiaridade com boas práticas de governança, documentação e versionamento de dados .
O QUE SERIA UM DIFERENCIAL?
  • Experiência com Databricks ou Azure .
  • Conhecimento em APIs de geocodificação ou uso de fontes externas para enriquecimento de dados.
  • Interesse em projetos ESG e sustentabilidade corporativa .
  • Certificações em GCP ou outras plataformas de nuvem.
ETAPAS DO PROCESSO :
  • Inscrição
  • Fit cultural
  • Entrevista técnica
  • Entrevista com o cliente
  • Contratação
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.