Ativa os alertas de emprego por e-mail!

Engenheiro de dados

ADEMICON ADMINISTRADORA DE CONSÓRCIOS S/A

Curitiba

Presencial

BRL 20.000 - 80.000

Tempo integral

Hoje
Torna-te num dos primeiros candidatos

Resumo da oferta

Uma empresa de consórcio está buscando um profissional para desenvolver e gerenciar pipelines de dados na AWS. O candidato ideal possui forte conhecimento em Cloud AWS e programação em Python, além de habilidades em resolução de problemas em sistemas distribuídos. A empresa oferece um ambiente de trabalho colaborativo e benefícios como assistência médica e PLR.

Serviços

Adiantamento de salário
Assistência médica
Assistência odontológica
Cesta de natal
PLR
Seguro de vida
Vale combustível
Vale refeição
Vale transporte
Vale alimentação
Plano de carreira

Qualificações

  • Profundo conhecimento no ecossistema de dados da AWS, principalmente em S3, AWS Glue, Lambda e Athena.
  • Experiência sólida em Terraform para provisionamento na AWS.
  • Proficiência em Python para desenvolvimento de pipelines e automações.
  • Sólidos conhecimentos em SQL para modelagem e transformação de dados.
  • Capacidade de analisar problemas complexos em sistemas distribuídos.

Responsabilidades

  • Desenvolver e gerenciar pipelines de dados robustos para o Data Lake.
  • Projetar processos de coleta de dados via APIs.
  • Gerenciar e provisionar infraestrutura de dados na AWS.
  • Modelar e materializar tabelas otimizadas com AWS Glue e SQL.
  • Criar automações e fluxos de trabalho para pipelines de dados.

Conhecimentos

Cloud AWS (Core)
Infraestrutura como Código (IaC)
Programação em Python
Processamento de Dados e SQL
Resolução de Problemas de Engenharia
Colaboração e Comunicação Técnica
Mentalidade de Automação
Senso de Dono (Ownership)
Organização e Documentação

Formação académica

Formação superior em Ciência da Computação ou áreas correlatas
Descrição da oferta de emprego
DESCRIÇÃO DA VAGA

A Ademicon é mais do que uma empresa: é uma marca que realiza!

Planejamos não só a conquista dos clientes, mas também a carreira de quem quer ser especialista no que faz. Aqui, as portas estão abertas para você mostrar seu talento não só para nós, mas para TODOS!

Somos uma empresa líder em consórcio há mais de 30 anos, que olha para frente e está à procura de profissionais que queiram conquistar ainda mais.

Nossa expansão vem tomando forma pelo mundo inteiro, com mais de 200 unidades de negócio, mais de 5000 consultores e licenciados, e um time corporativo com mais de 350 colaboradores. Em 2024, a companhia conseguiu atingir a incrível marca de +84 bilhões em créditos comercializados e +295 mil clientes atendidos.

Mas esses números só são possíveis com a nossa gente, que faz a marca acontecer e leva adiante tudo o que acreditamos. E, claro, acreditamos em VOCÊ!

Venha fazer parte deste time e dê o primeiro passo para o seu futuro de sucesso.

Responsabilidades

Construção e Manutenção de Pipelines (ETL/ELT): Desenvolver, implantar e gerenciar pipelines de dados robustos, escaláveis e automatizados para coletar, transformar e carregar dados de diversas fontes para o nosso Data Lake.

  • Ingestão de Dados via APIs: Projetar e implementar processos de coleta de dados de fontes externas, principalmente via APIs REST/SOAP, garantindo a correta extração e armazenamento dos dados no Amazon S3.
  • Infraestrutura como Código (IaC): Gerenciar e provisionar toda a infraestrutura de dados na AWS utilizando Terraform, garantindo um ambiente versionado, reprodutível, seguro e otimizado para custos.
  • Modelagem e Materialização de Dados: Atuar em colaboração direta com os Analistas de BI para entender suas necessidades, modelar e materializar tabelas otimizadas (views, tabelas fato/dimensão, agregações) utilizando AWS Glue e SQL.
  • Automação e Orquestração: Criar e gerenciar automações e fluxos de trabalho (workflows) para os pipelines de dados, utilizando serviços como Glue workflow, AWS Step Functions, Lambda ou orquestradores de mercado.

Requisitos:

  • Cloud AWS (Core): Profundo conhecimento no ecossistema de dados da AWS, principalmente em S3, AWS Glue (Spark/ETL), Lambda, Step Functions, IAM e Athena.
  • Infraestrutura como Código (IaC): Experiência sólida e comprovada com Terraform para provisionamento e gestão de infraestrutura na AWS. É um diferencial.
  • Programação: Proficiência em Python para desenvolvimento de pipelines, automações e integrações com APIs (utilizando bibliotecas como Pandas, Boto3, Requests, etc.).
  • Processamento de Dados e SQL: Sólidos conhecimentos em SQL para modelagem e transformação de dados. Experiência com Spark (PySpark) é um grande diferencial.
  • Resolução de Problemas de Engenharia: Capacidade de analisar problemas complexos em sistemas distribuídos, identificar a causa raiz e implementar soluções robustas.
  • Colaboração e Comunicação Técnica: Habilidade de se comunicar de forma clara com os Analistas de BI e de Negócios, traduzindo suas necessidades em requisitos técnicos eficazes.
  • Mentalidade de Automação: Pensamento focado em automação para eliminar tarefas manuais, reduzir erros e construir sistemas resilientes e escaláveis.
  • Senso de Dono (Ownership): Assumir total responsabilidade pela infraestrutura e pelos pipelines de dados, garantindo que funcionem de forma confiável e eficiente.
  • Organização e Documentação: Disciplina para manter a documentação da infraestrutura e dos processos de dados sempre atualizada.
  • Formação superior em andamento ou completa em Ciência da Computação, Engenharias ou áreas correlatas de tecnologia.

Benefícios

  • Adiantamento de salário
  • Assistência médica
  • Assistência odontológica
  • Cesta de natal
  • PLR
  • Seguro de vida
  • Vale combustível
  • Vale refeição
  • Vale transporte
  • Vale alimentação
  • Plano de carreira
INFORMAÇÕES ADICIONAIS

Contrato: CLT

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.