Ativa os alertas de emprego por e-mail!

Engenheiro De Dados - Sênior

buscojobs Brasil

Paraíba

Híbrido

BRL 20.000 - 80.000

Tempo integral

Ontem
Torna-te num dos primeiros candidatos

Resumo da oferta

Uma empresa de transformação digital em Paraíba está buscando um Engenheiro de Dados. O candidato ideal deve ter experiência em arquitetar e manter pipelines de dados, com domínio avançado em Python e proficiência em serviços AWS. Oferecemos um ambiente de trabalho colaborativo, com benefícios como vale alimentação e plano de saúde de alta qualidade, além de um horário flexível.

Serviços

Vale alimentação e refeição
Auxílio home office
Plano de saúde
Seguro de vida
Horário flexível
Ambiente leve e colaborativo

Qualificações

  • Experiência prévia como Engenheiro de Dados ou funções similares.
  • Domínio avançado de Python para processamento de dados.
  • Experiência prática com Databricks e uso de Spark.

Responsabilidades

  • Arquitetar e manter pipelines ETL/ELT para dados.
  • Construir arquiteturas orientadas a eventos para dados em tempo real.
  • Documentar projetos técnicos e processos.

Conhecimentos

Python avançado
Experiência com Databricks
Serviços AWS
ETL / ELT
Arquitetura orientada a eventos
Ambientes ágeis
Banco de dados relacionais e não relacionais
Modelagem de dados
Práticas DevOps
Comunicação em inglês

Formação académica

Formação superior em Engenharia da Computação, Ciência da Computação ou áreas correlatas

Ferramentas

Apache Airflow
Docker
Kubernetes
Descrição da oferta de emprego
Visão geral

Somos a Framework! Evoluímos grandes marcas em todo o mundo com transformação digital e crescemos continuamente através de agilidade, design e tecnologia.

Fazer parte do nosso time é saber que a sua jornada será de desafios reais, de crescimento contínuo e de contato diário com referências em tecnologia. Vem com a gente!

Benefícios? É claro que temos!

  • Todas as nossas vagas são abertas para PCDs!

Auxílio financeiro e condições:

  • Vale alimentação e refeição no cartão Swile com mais de R$ 1.200,00 mensais
  • Auxílio home office no valor de R$ 150,00 mensais
  • Você decide entre vale-transporte ou vale-combustível, no caso de vagas híbridas e presenciais
  • Plano de saúde e auxílio odontológico de alta qualidade
  • Seguro de vida que cobre doenças ocupacionais
  • Participação nos lucros
  • Gympass e TotalPass para se manter saudável
  • Tribass para trocar moedas digitais por hospedagens e passagens aéreas com cobertura mundial
  • Licença maternidade estendida: 180 dias
  • Licença paternidade estendida: 30 dias
  • Desconto em consultas nutricionais
  • Desconto em terapia online
  • Clube de benefícios para quem gosta de comprar com descontos
  • Knowledge transfer através do Frame KT
  • Bonificação por indicação de novos colaboradores
  • E não paramos por aí! Horário flexível
  • No dress code
  • Nas pausas presenciais, fique à vontade para comer pães, bolos e frutas
  • Ambiente leve, flexível e cultura colaborativa.

E qual será a sua missão na Framework?

  1. Arquitetar, implementar e manter pipelines ETL / ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados;
  2. Construir arquiteturas orientadas a eventos para viabilizar o processamento de dados em tempo real e a integração fluida entre sistemas;
  3. Utilizar serviços da AWS (como S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta;
  4. Escrever código limpo, eficiente e de fácil manutenção em Python para ingestão, transformação e orquestração de dados;
  5. Trabalhar em estreita colaboração com times multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas;
  6. Implementar boas práticas de qualidade de dados, monitoramento e conformidade para garantir integridade, consistência e segurança dos dados;
  7. Otimizar pipelines de dados e consultas em ambientes em nuvem visando desempenho, escalabilidade e eficiência de custos;
  8. Oferecer orientação técnica a membros juniores do time, promovendo uma cultura de aprendizado contínuo e melhoria constante;
  9. Documentar projetos técnicos, processos e fluxos de trabalho para garantir a manutenção e o repasse de conhecimento.

O que é preciso para fazer parte do time?

  1. Formação superior em Engenharia da Computação, Ciência da Computação, Tecnologia da Informação, Ciência de Dados ou áreas correlatas;
  2. Experiência prévia como Engenheiro de Dados ou em funções similares, com foco em desenvolvimento de pipelines e soluções de dados em nuvem;
  3. Domínio avançado de Python para processamento de dados, automações e scripts;
  4. Experiência prática com Databricks, incluindo uso de Spark, Delta Lake e workflows da plataforma;
  5. Sólido conhecimento em serviços AWS, como S3, Redshift, Glue, Lambda, Kinesis e Athena, para construção e gestão de infraestrutura de dados;
  6. Especialista em processos ETL / ELT, utilizando ferramentas como Apache Airflow, AWS Glue ou similares;
  7. Experiência com arquitetura orientada a eventos, como AWS Kinesis e Kafka, para pipelines em tempo real;
  8. Vivência em ambientes ágeis (Scrum ou Kanban), com boa capacidade de adaptação a times multidisciplinares;
  9. Proficiência em bancos de dados relacionais e não relacionais, como PostgreSQL, MySQL, DynamoDB e MongoDB, incluindo otimização de queries SQL;
  10. Forte entendimento de modelagem de dados (ex: star schema, snowflake) voltada para análise e relatórios;
  11. Familiaridade com práticas DevOps, incluindo CI / CD, versionamento (Git) e infraestrutura como código (Terraform, AWS CloudFormation);
  12. Excelentes habilidades analíticas e de resolução de problemas, com foco em entregar soluções escaláveis e eficientes;
  13. Boa comunicação escrita e verbal, com capacidade de colaborar com stakeholders técnicos e não técnicos;
  14. Inglês fluente - será necessário ler e entender documentações em inglês. Além disso, fará parte do seu cotidiano conversar com estrangeiros.

Será um diferencial se você :

  1. Tiver experiência com tecnologias de conteinerização (ex: Docker, Kubernetes) para implantação de aplicações de dados.
  2. Conhecer frameworks de governança de dados e normas de conformidade (ex: GDPR, CCPA).
  3. Tiver familiaridade com ferramentas adicionais de big data, como Apache Spark, Hadoop ou Snowflake.
  4. Possuir certificações em AWS (ex: AWS Certified Data Analytics, AWS Certified Solutions Architect) ou Databricks.

A NOSSA EVOLUÇÃO É CRESCENTE!

E, para acompanhar esse crescimento, precisamos de pessoas que agreguem propondo ideias, soluções e desafios!

Gostou da oportunidade? Vamos juntos e faça parte da nossa história! #vempraframe

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.