Ativa os alertas de emprego por e-mail!

Engenheiro de Dados

VIACERTA Financiadora SA

Brasil

Teletrabalho

BRL 20.000 - 80.000

Tempo integral

Há 6 dias
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia em dados está buscando um(a) Engenheiro(a) de Dados Pleno ou Sênior para desenhar e implementar a nova plataforma de dados corporativa. A vaga oferece trabalho 100% remoto e projetos desafiadores. O candidato deve ter experiência em SQL, Databricks e pipelines de dados. A empresa promove um ambiente colaborativo e oportunidades de evolução na carreira, com benefícios como vale alimentação e plano de saúde.

Serviços

Vale Alimentação
Vale-transporte
Plano de Saúde Unimed Nacional
Atendimento Psicológico
Seguro de Vida
Day Off no mês de aniversário
14º e 15º salário
Participação nos Resultados

Qualificações

  • Experiência sólida como Engenheiro(a) de Dados para Pleno ou avançada para Sênior.
  • Proficiência em SQL para manipulação de grandes volumes de dados.
  • Experiência com ecossistema Databricks e pipelines de dados (ETL/ELT).

Responsabilidades

  • Projetar e manter pipelines de dados eficientes utilizando Databricks.
  • Implementar e gerenciar a arquitetura Medallion.
  • Colaborar com outras áreas para garantir dados de alta qualidade.

Conhecimentos

SQL
Python
Databricks
Modelagem de dados
Controle de versão (Git)

Ferramentas

Airflow
Azure Data Factory
Kafka
Descrição da oferta de emprego
Job description
Engenheiro(a) de Dados Pleno ou Sênior

🚀 Sobre a Vaga

Estamos em busca de um(a) Engenheiro(a) de Dados Pleno ou Sênior para um desafio empolgante: ser uma peça-chave na construção da nossa nova plataforma de dados corporativa.

Você fará parte do time responsável por desenhar, implementar e escalar nosso Data Lakehouse, estruturando o fluxo de dados em uma arquitetura Medallion (camadas Bronze, Prata e Ouro). Sua atuação será fundamental para transformar dados brutos em insights acionáveis que direcionarão as estratégias da companhia.

Se você é apaixonado(a) por dados, busca um ambiente com autonomia, propósito e oportunidades reais de evolução, e quer construir soluções de alto impacto do zero, esta vaga é para você.

Main responsibilities

📋 Responsabilidades e Atribuições

  • Projetar, desenvolver e manter pipelines de dados (ETL/ELT) robustos, eficientes e escaláveis utilizando o ecossistema Databricks ou similar (PySpark e SQL).
  • Implementar e gerenciar a arquitetura Medallion, garantindo a correta transição, limpeza, enriquecimento e agregação dos dados entre as camadas Bronze, Prata e Ouro.
  • Construir e otimizar processos de ingestão de dados de diversas fontes (APIs, bancos de dados relacionais e não-relacionais, streaming, etc.).
  • Colaborar com Analistas de Negócios, Cientistas de Dados e outras áreas de negócio para entender os requisitos e disponibilizar dados de alta qualidade para consumo.
  • Garantir a qualidade, integridade, segurança e governança dos dados em todo o ciclo de vida, aplicando as melhores práticas do mercado.
  • Otimizar o desempenho de jobs Spark ou similares e consultas SQL no ambiente Databricks, Delta Lake ou similares.
  • Documentar as soluções de dados, arquiteturas e fluxos de trabalho.
  • (Para Sênior) Atuar como referência técnica, mentorar membros da equipe e liderar definições de arquitetura de dados.
Requirements and skills

💡 Requerimentos e Qualificações

Para esta posição, esperamos que você tenha um perfil proativo, colaborativo e com forte capacidade de resolução de problemas.

Obrigatórias

  • Experiência sólida (Pleno) ou avançada (Sênior) atuando como Engenheiro(a) de Dados.
  • Proficiência em SQL para manipulação e consulta de grandes volumes de dados.
  • Conhecimento em Python aplicado a dados.
  • Experiência prática e comprovada com o ecossistema Databricks (Notebooks, Delta Lake, Spark SQL, Jobs) ou similares.
  • Sólidos conhecimentos em modelagem de dados (Dimensional, Data Warehouse) e conceitos de Data Lake e Data Lakehouse.
  • Experiência na construção, orquestração e monitoramento de pipelines de dados (ETL/ELT).
  • Experiência com pelo menos uma plataforma de nuvem (AWS, Azure ou GCP).
  • Conhecimento em controle de versão (Git).
Additional information

Diferenciais

  • Experiência anterior na implementação de arquitetura Medallion (Bronze/Silver/Gold).
  • Experiência com ferramentas de governança de dados, especialmente Databricks Unity Catalog.
  • Conhecimento em práticas de DataOps/DevOps (CI/CD, Terraform, etc.) aplicadas a pipelines de dados.
  • Experiência com ferramentas de orquestração de dados (ex: Airflow, Azure Data Factory, Mage, etc.).
  • Conhecimento em ingestão de dados em streaming (ex: Kafka, Spark Structured Streaming).
  • Conhecimento em ferramentas de Business Intelligence (Power BI, Tableau, Metabase, etc.) para entender o consumo final dos dados.

🌟 Por que se juntar a nós?

  • Trabalho 100% Remoto com flexibilidade de horário.
  • Viagens eventuais à matriz para integração, planejamento e encontros estratégicos (custeadas pela empresa).
  • Ambiente colaborativo e com autonomia, onde sua voz é ouvida e você tem liberdade para propor e implementar novas soluções.
  • Propósito claro e a chance de construir uma área estratégica do zero, deixando seu legado.
  • Oportunidades reais de evolução e crescimento de carreira em uma empresa em expansão.

Benefícios:

🍞 Vale Alimentação;

🚌 Vale-transporte;

💊 Plano de Saúde Unimed Nacional;

💬 Atendimento Psógico;

🔒 Seguro de Vida;

🎁 Day Off no mês de aniversário;

14º 15º;

Participação nos Resultados;

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.