
Ativa os alertas de emprego por e-mail!
Cria um currículo personalizado em poucos minutos
Consegue uma entrevista e ganha mais. Sabe mais
Uma empresa do setor de Finanças está em busca de um profissional com foco em dados para trabalhar na estruturação e manutenção de seu datalake corporativo. O profissional será responsável por construir e manter pipelines de ingestão de dados e garantir a integridade das informações. É essencial ter domínio de SQL avançado e Python, além de experiência com ETL/ELT e ferramentas de BI. Oferecemos uma remuneração competitiva e benefícios como vale-refeição e plano de carreira estruturado.
O profissional terá como principal missão atuar com foco em dados no time de Finance.
Arquitetura e Governança de Dados : estruturar e manter o datalake corporativo com padrões de qualidade, segurança e versionamento. Garantir a governança e integridade dos dados que alimentam a Árvore de Indicadores.
Pipelines e Integrações : construir e manter pipelines de ingestão e transformação de dados (ETL / ELT) provenientes de todos os sistemas críticos (Zoho, Oracle OCI, bases de produto, ERP, etc.). Automatizar atualizações e assegurar performance e confiabilidade das cargas.
Modelagem e Cálculo de Indicadores : traduzir regras de negócio e métricas estratégicas em modelos de dados e cálculos consistentes. Criar e manter os marts / layers de KPIs corporativos (MRR, NRR, CAC, LTV, churn, CX, consumo de nuvem, etc.).
Sustentação Analítica e Dashboards : garantir que dashboards corporativos (FP&A, BUs, Growth, CX, Controladoria, Produto) utilizem sempre a fonte única e confiável.
Corrigir e evoluir indicadores conforme mudanças de regra de negócio.
Suporte Avançado ao FP&A : apoiar a construção de análises e modelos preditivos (projeções, sensibilidade, cohort, Monte Carlo). Fornecer estruturas de dados robustas para budget, forecast e análises financeiras.
Liderança Técnica e Boas Práticas : ser referência técnica para engenharia e análise de dados. Promover boas práticas de documentação, governança, qualidade e segurança da informação.
Formação superior completa.
Domínio de SQL avançado e Python.
Experiência sólida com datalake, pipelines ETL / ELT e orquestração (Airflow, DBT ou similares).
Forte conhecimento em modelagem de dados, governança, versionamento e data quality.
Experiência integrando dados de múltiplas fontes (APIs, CRMs, ERPs, bancos transacionais).
Vivência com ferramentas de BI (Zoho Analytics, Power BI, Tableau ou equivalentes).
Habilidade para construir e manter KPIs corporativos (MRR, NRR, churn, CAC, LTV, margem, etc.).
Noções de estatística e modelos preditivos (forecast, regressão) — diferencial.
Plano de carreira bem estruturado.