Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Página da Vaga | 10515660 - ENGENHEIRO DE DADOS PLENO

Quality Digital

Teletrabalho

BRL 20.000 - 80.000

Tempo integral

Ontem
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de soluções de TI está buscando um profissional para projetar e implementar pipelines de dados, realizar integração de dados de sistemas, e garantir a qualidade de dados em ambientes analíticos. A vaga é 100% remota e requer conhecimentos em SQL, Python e ferramentas de ETL. Oferecemos um ambiente colaborativo e diversas vantagens, como assistência médica e oportunidades de crescimento profissional.

Serviços

Vale alimentação
Assistência médica
Convênio com farmácias
Auxílio creche
Convênio academia
Parceria com o SESC
Programas de estudo
Empréstimo consignado
Universidade Corporativa
Programa de Indicações
Seguro de vida

Qualificações

  • Conhecimentos em linguagens de manipulação de dados, como SQL e Python.
  • Experiência prática com ferramentas de ETL/ELT e orquestração de workflows.
  • Experiência com bancos de dados relacionais e não-relacionais.
  • Conhecimentos de arquitetura de dados em nuvem - Azure.
  • Experiência com versionamento de código e integração contínua.
  • Familiaridade com práticas de segurança e compliance de dados.

Responsabilidades

  • Projetar e implementar pipelines de dados usando ferramentas modernas.
  • Realizar integração de dados de sistemas transacionais e APIs.
  • Criar e manter estruturas de dados em ambientes analíticos.
  • Assegurar a governança e qualidade dos dados.
  • Automatizar rotinas de extração e transformação de dados.
  • Apoiar equipes com dados confiáveis e bem modelados.
  • Participar de projetos de migração de dados para a nuvem.
  • Monitorar e resolver falhas em pipelines de dados.

Conhecimentos

SQL
Python
Apache Airflow
Luigi
DBT
PostgreSQL
MySQL
MongoDB
BigQuery
Redshift
Snowflake
Git
Terraforms
Data Vault
Kimball
Descrição da oferta de emprego
Job description

Nós somos a Quality Digital! Saiba mais sobre a gente:

  • Uma frase que nos define - Somos especialistas em soluções de TI e apaixonados por inovação! 🚀
  • Ao infinito e além - Somos #semfronteiras. Nosso time está espalhado pelo Brasil e pelo mundo 🌎
  • Nossa cultura - Mesmo distantes, estamos juntos 🧡 Temos cerimônias para estarmos mais próximos, compartilhar conhecimento e ficar por dentro das novidades da nossa empresa!
  • Somos diversos - Um dos nossos compromissos é fazer da companhia um ambiente cada vez mais diverso, inclusivo e respeitoso, valorizando e promovendo a pluralidade. Por isso, aqui temos espaço para todas as pessoas, independente de raça, gênero, idade, orientação sexual, crença religiosa ou deficiência. 🏳️🌈👩🏾🦽
  • Nosso objetivo - Potencializar os negócios dos nossos clientes através de soluções inovadoras e sustentáveis. Topa vir com a gente nessa? 🎯
Main responsibilities

Como será o seu dia a dia:

  • Projetar e implementar pipelines de dados (ETL/ELT) utilizando ferramentas modernas (ex: Apache Airflow, DBT, Dataflow);
  • Realizar integração de dados provenientes de sistemas transacionais, APIs, bancos relacionais e não-relacionais;
  • Criar e manter estruturas de dados otimizadas em ambientes analíticos (data lakes e data warehouses);
  • Assegurar a governança, qualidade e catalogação dos dados;
  • Automatizar rotinas de extração, transformação e carga de dados;
  • Apoiar cientistas de dados, analistas e squads de produto com dados confiáveis e bem modelados;
  • Participar de projetos de modernização e migração de dados para a nuvem;
  • Monitorar e resolver falhas em pipelines e processos críticos de dados.
Requirements and skills
  • Conhecimentos em linguagens de manipulação de dados como SQL e Python;
  • Experiência prática com ferramentas de ETL/ELT e orquestração de workflows (ex: Apache Airflow, Luigi, DBT);
  • Experiência com bancos de dados relacionais (ex: PostgreSQL, MySQL) e não-relacionais (ex: MongoDB, BigQuery, Redshift, Snowflake);
  • Conhecimentos de arquitetura de dados em nuvem - Azure;
  • Experiência com versionamento de código (Git) e integração contínua;
  • Familiaridade com práticas de segurança, anonimização e compliance de dados (ex: LGPD/GDPR).

Desejável:

  • Conhecimento em Snowflake;
  • Experiência com ferramentas de streaming de dados (ex: Kafka, Pub/Sub);
  • Conhecimentos de infraestrutura como código (Terraform, CloudFormation);
  • Experiência com ambientes de DataOps e CI/CD para pipelines de dados;
  • Noções de modelagem dimensional e conceitos de Data Vault ou Kimball.

Horário de Atuação

  • Seg a sex das 9h às 18h - 100% remoto.

OBS.: Hey! Caso você não preencha todos os requisitos da vaga, te convidamos a se candidatar mesmo assim, ok? Faremos uma análise cuidadosa do seu perfil considerando todas as suas qualificações 😉

Additional information

O que você vai encontrar aqui:

  • Um ambiente propício para aprendizado e crescimento profissional 🎯
  • Avaliação de desempenho e feedbacks, visando o desenvolvimento contínuo das nossas pessoas 📊
  • Vale alimentação e/ou refeição para suas compras de mercado e refeições 🍴
  • Assistência médica e odontológica para que você e sua família estejam com a saúde em dia 💙
  • Convênio com farmácias para descontos em medicamentos 💊
  • Auxílio creche de acordo com política vigente 🍼
  • Convênio academia para te incentivar a se exercitar 🤸♀️🤸♂️
  • Parceria com o SESC para programações variadas de cultura e lazer
  • Parcerias paraseus estudos de idiomas, tecnologia e plataforma de cursos 📚
  • Empréstimo consignado com taxas atrativas + programa de educação financeira 💰
  • Universidade Corporativa e trilhas de conhecimento com conteúdos diversos de tecnologia, soft skills, tendências de mercado e muito mais 👨💻
  • Programa de Indicações com possibilidade de prêmios e bonificações 🎁
  • Seguro de vida coletivo⛑
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.