Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Analista de Inteligência de Dados

LigueLead

Campinas

Presencial

BRL 80.000 - 120.000

Tempo integral

Hoje
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia em Campinas está em busca de um Engenheiro de Dados. O profissional será responsável por estruturar e manter a arquitetura de dados, projetar e otimizar pipelines de ETL/ELT, e garantir a segurança e disponibilidade das informações. É necessário ter experiência em SQL e Python, conhecimento em ferramentas de processamento de dados e vivência em ambientes de cloud como AWS ou GCP. A colaboração com analistas e cientistas de dados também é fundamental.

Qualificações

  • Experiência em linguagens como SQL e Python (ou Scala).
  • Conhecimento em ferramentas de processamento de dados.
  • Experiência com bancos relacionais e não-relacionais.
  • Vivência em cloud (AWS, GCP ou Azure).
  • Boas práticas de versionamento (Git) e metodologias ágeis.

Responsabilidades

  • Projetar, desenvolver e manter pipelines de ETL/ELT.
  • Integrar dados de múltiplas fontes (APIs, sistemas internos, bancos de dados).
  • Construir e otimizar data lakes e data warehouses.
  • Garantir a governança, qualidade e segurança dos dados.
  • Colaborar com analistas e cientistas de dados.

Conhecimentos

SQL
Python
Habilidades em processamento de dados
Metodologias ágeis

Ferramentas

Spark
Kafka
Hadoop
Git
Descrição da oferta de emprego
Descrição

Estamos em busca de um Engenheiro de Dados para estruturar e manter nossa arquitetura de dados. Este profissional será responsável por projetar e otimizar pipelines de ingestão, transformação e armazenamento de dados, garantindo disponibilidade, escalabilidade e segurança das informações para toda a empresa.

Responsabilidades e atribuições
Responsabilidades
  • Projetar, desenvolver e manter pipelines de ETL/ELT.
  • Integrar dados de múltiplas fontes (APIs, sistemas internos, bancos de dados).
  • Construir e otimizar data lakes e data warehouses.
  • Garantir a governança, qualidade e segurança dos dados.
  • Colaborar com analistas e cientistas de dados para facilitar o acesso às informações.
Requisitos e qualificações
Requisitos
  • Experiência em linguagens como SQL e Python (ou Scala).
  • Conhecimento em ferramentas de processamento de dados (Spark, Kafka, Hadoop é diferencial).
  • Experiência com bancos relacionais e não-relacionais.
  • Vivência em cloud (AWS, GCP ou Azure).
  • Boas práticas de versionamento (Git) e metodologias ágeis.
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.