Ativa os alertas de emprego por e-mail!

Engenheiro de Dados Pl.

PagSeguro

São Paulo

Híbrido

BRL 20.000 - 80.000

Tempo integral

Hoje
Torna-te num dos primeiros candidatos

Resumo da oferta

Uma fintech brasileira em São Paulo está buscando um profissional para desenvolver e manter pipelines de dados, participar de modelagens dimensionais, e auxiliar na governança de dados. O candidato ideal deve ter formação em Tecnologia da Informação, conhecimentos avançados em SQL e experiência com Arquitetura AWS. Esta posição é uma excelente oportunidade para quem deseja crescer na área de dados.

Qualificações

  • Diploma completo ou em curso na área de TI.
  • Habilidade em SQL, incluindo Procedures e Functions.
  • Experiência em modelagem de dados e ETL.

Responsabilidades

  • Desenvolver e manter pipelines de dados.
  • Participar na construção de modelos dimensionais.
  • Auxiliar na governança de dados.

Conhecimentos

SQL avançado
Modelagem Relacional
Modelagem Dimensional
Conhecimento em Arquitetura AWS
ETL com Airflow
Versionamento com Git
Apache Kafka

Formação académica

Superior em Tecnologia da Informação ou áreas correlatas

Ferramentas

Redshift
PostgreSQL
MongoDB
Kafka
Power BI
Descrição da oferta de emprego
Job description

Quando você pensa em carreira, o que vem à sua mente? Propósito? Colaboração? Ser protagonista para fazer a diferença? No PagBank temos tudo isso e muito mais. 💛

Estamos em busca de pessoas que vistam a camisa com orgulho. Gente com vontade de facilitar a vida financeira das pessoas e impulsionar negócios!

Tá a fim de uma carreira que rende mais?Confira essa oportunidade e #VemProPags!

Main responsibilities
  • Desenvolver e manter pipelines para a transformação de dados brutos em informações de valor para as áreas de negócios.
  • Participar ativamente na construção de modelos dimensionais para a disponibilização de dados acessíveis, consistentes e com alta performance para consultas complexas.
  • Desenvolver processos de integração de dados para dentro e para fora do ambiente analítico via Apache Kafka.
  • Auxiliar no processo de governança de dados, participando ativamente na construção de monitores de dados e na documentação das tabelas.
  • Analisar criticamente as demandas de negócios a fim de construir modelos dimensionais que expressem métricas de real importância para a companhia.
Requirements and skills
  • Superior (completo ou cursando) em cursos de Tecnologia da Informação ou áreas correlatas.
  • Conhecimento em SQL a nível avançado (Procedures e Functions; Window Functions).
  • Conhecimento em Bancos de dados relacionais e NoSQL (Redshift,Oracle, PostreSQL, Dynamodb, MongoDB).
  • Conhecimento em distribuição de dados.
  • Experiência com Modelagem Relacional e Modelagem Dimensional (fatos, dimensões, SCD).
  • Experiência com Orquestração de ETL com Airflow.
  • Conhecimento em Versionamento de código com Git e GitHub.
  • Familiaridade com Apache Kafka.
  • Conhecimento em OGG e CDC (Change Data Capture).
  • Conhecimento em Arquitetura AWS (Redshift, S3, Lambda, IAM).
  • Familiaridade com Observabilidade de Dados.
Additional information

Para se destacar nessa posição, seria legal se você também tivesse:

  • Experiência com arquitetura AWS.
  • Experiência com Python ou Java para ETL.
  • Experiência com Power BI ou Looker.
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.