Ativa os alertas de emprego por e-mail!

Engenheiro De Dados - Sênior

buscojobs Brasil

Pernambuco

Híbrido

BRL 20.000 - 80.000

Tempo integral

Hoje
Torna-te num dos primeiros candidatos

Resumo da oferta

Uma empresa de transformação digital está buscando um Engenheiro de Dados para arquitetar e manter pipelines ETL/ELT. Os candidatos devem ter domínio em Python e experiência com serviços AWS. Benefícios incluem vale alimentação, plano de saúde e ambiente colaborativo. Proficiency in English is required.

Serviços

Vale alimentação e refeição
Auxílio home office
Plano de saúde
Gympass
Participação nos lucros

Qualificações

  • Experiência prévia como Engenheiro de Dados ou em funções similares.
  • Sólido conhecimento em serviços AWS.
  • Excelentes habilidades analíticas e de resolução de problemas.

Responsabilidades

  • Arquitetar, implementar e manter pipelines ETL / ELT.
  • Colaborar com cientistas de dados e engenheiros de software.
  • Otimizar pipelines de dados em ambientes em nuvem.

Conhecimentos

Python
AWS (S3, Redshift, Glue)
Databricks
ETL / ELT
Arquitetura orientada a eventos
Análise de dados
DevOps (CI/CD, Git)
Inglês fluente

Formação académica

Formação superior em Engenharia da Computação, Ciência da Computação, ou áreas correlatas

Ferramentas

Spark
Docker
Kubernetes
PostgreSQL
MongoDB
Descrição da oferta de emprego

Somos a Framework! Evoluímos grandes marcas em todo o mundo com transformação digital e crescimos continuamente através de agilidade, design e tecnologia.

Fazer parte do nosso time é saber que a sua jornada será de desafios reais, de crescimento contínuo e de contato diário com referências em tecnologia. Vem com a gente!

Todas as nossas vagas são abertas para PCDs!

Benefícios? É claro que temos!

  • Vale alimentação e refeição no cartão Swile com mais de R$ 1.200,00 mensais
  • Auxílio home office no valor de R$ 150,00 mensais
  • Você decide entre vale-transporte ou vale-combustível, no caso de vagas híbridas e presenciais
  • Plano de saúde e auxílio odontológico de alta qualidade
  • Seguro de vida que cobre doenças ocupacionais
  • Participação nos lucros
  • Gympass e TotalPass para se manter saudável
  • Tribass para trocar moedas digitais por hospedagens e passagens aéreas com cobertura mundial
  • Licença maternidade estendida: 180 dias
  • Licença paternidade estendida: 30 dias
  • Desconto em consultas nutricionais
  • Desconto em terapia online
  • Clube de benefícios para quem gosta de comprar com descontos
  • Knowledge transfer através do Frame KT
  • Bonificação por indicação de novos colaboradores

Horário flexível

No dress code

Nas pausas presenciais, fique à vontade para comer pães, bolos e frutas

Ambiente leve, flexível e cultura colaborativa.

E qual será a sua missão na Framework?

  • Arquitetar, implementar e manter pipelines ETL / ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados;
  • Construir arquiteturas orientadas a eventos para viabilizar o processamento de dados em tempo real e a integração fluida entre sistemas;
  • Utilizar serviços da AWS (como S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta;
  • Escrever código limpo, eficiente e de fácil manutenção em Python para ingestão, transformação e orquestração de dados;
  • Trabalhar em estreita colaboração com times multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas;
  • Implementar boas práticas de qualidade de dados, monitoramento e conformidade para garantir integridade, consistência e segurança dos dados;
  • Otimizar pipelines de dados e consultas em ambientes em nuvem visando desempenho, escalabilidade e eficiência de custos;
  • Oferecer orientação técnica a membros juniores do time, promovendo uma cultura de aprendizado contínuo e melhoria constante;
  • Documentar projetos técnicos, processos e fluxos de trabalho para garantir a manutenção e o repasse de conhecimento.

O que é preciso para fazer parte do time?

  • Formação superior em Engenharia da Computação, Ciência da Computação, Tecnologia da Informação, Ciência de Dados ou áreas correlatas;
  • Experiência prévia como Engenheiro de Dados ou em funções similares, com foco em desenvolvimento de pipelines e soluções de dados em nuvem;
  • Domínio avançado de Python para processamento de dados, automações e scripts;
  • Experiência prática com Databricks, incluindo uso de Spark, Delta Lake e workflows da plataforma;
  • Sólido conhecimento em serviços AWS, como S3, Redshift, Glue, Lambda, Kinesis e Athena, para construção e gestão de infraestrutura de dados;
  • Especialista em processos ETL / ELT, utilizando ferramentas como Apache Airflow, AWS Glue ou similares;
  • Experiência com arquitetura orientada a eventos, como AWS Kinesis e Kafka, para pipelines em tempo real;
  • Vivência em ambientes ágeis (Scrum ou Kanban), com boa capacidade de adaptação a times multidisciplinares;
  • Proficiência em bancos de dados relacionais e não relacionais, como PostgreSQL, MySQL, DynamoDB e MongoDB, incluindo otimização de queries SQL;
  • Forte entendimento de modelagem de dados (ex: star schema, snowflake) voltada para análise e relatórios;
  • Familiaridade com práticas DevOps, incluindo CI / CD, versionamento (Git) e infraestrutura como código (Terraform, AWS CloudFormation);
  • Excelentes habilidades analíticas e de resolução de problemas, com foco em entregar soluções escaláveis e eficientes;
  • Boa comunicação escrita e verbal, com capacidade de colaborar com stakeholders técnicos e não técnicos;
  • Inglês fluente - será necessário ler e entender documentações em inglês. Além disso, fará parte do seu cotidiano conversar com estrangeiros.

Será um diferencial se você:

  • Tiver experiência com tecnologias de conteinerização (ex: Docker, Kubernetes) para implantação de aplicações de dados.
  • Conhecer frameworks de governança de dados e normas de conformidade (ex: GDPR, CCPA).
  • Tiver familiaridade com ferramentas adicionais de big data, como Apache Spark, Hadoop ou Snowflake.
  • Possuir certificações em AWS (ex: AWS Certified Data Analytics, AWS Certified Solutions Architect) ou Databricks.

A NOSSA EVOLUÇÃO É CRESCENTE!

E, para acompanhar esse crescimento, precisamos de pessoas que agreguem propondo ideias, soluções e desafios!

Gostou da oportunidade? Vamos juntos e faça parte da nossa história!

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.