Ativa os alertas de emprego por e-mail!

Engenheiro de Dados AWS Pleno (Remoto - Temporário)

Dataside Soluções em Banco de Dados

Brasil

Teletrabalho

BRL 60.000 - 100.000

Tempo integral

Há 27 dias

Melhora as tuas possibilidades de ir a entrevistas

Cria um currículo adaptado à oferta de emprego para teres uma taxa de sucesso superior.

Resumo da oferta

Uma empresa inovadora está em busca de um Engenheiro de Dados AWS para atuar remotamente. O profissional terá a responsabilidade de entregar soluções complexas em projetos de engenharia de dados, orientando clientes e desenvolvendo colegas menos experientes. Com foco em gerar valor real para o negócio, o candidato ideal deve ter experiência em construção de pipelines de dados, otimização de performance e comunicação clara com stakeholders. Se você é apaixonado por dados e deseja fazer a diferença, essa é a oportunidade perfeita para você se destacar em um ambiente colaborativo e dinâmico.

Qualificações

  • Experiência prática em projetos de dados de média e alta complexidade.
  • Domínio da stack analítica AWS e construção de pipelines com PySpark.

Responsabilidades

  • Projetar e manter pipelines de dados usando PySpark e serviços AWS.
  • Gerenciar ingestão e transformação de dados com boas práticas.

Conhecimentos

PySpark avançado
SQL avançado
Comunicação clara
Postura consultiva
Autonomia

Formação académica

Certificação AWS Data Engineer Associate
Certificação AWS Solutions Architect Associate

Ferramentas

AWS S3
AWS Glue
AWS EMR
AWS Athena
AWS Redshift
AWS Lambda
AWS Step Functions
Git
CI/CD

Descrição da oferta de emprego

Engenheiro de Dados AWS (Consultor - Remoto)

Dataside São José dos Campos, São Paulo, Brazil

Papel na empresa: O Engenheiro de Dados Pleno na Dataside tem autonomia para entregar soluções de alta complexidade em projetos de engenharia de dados. Atua como responsável técnico por contratos, sempre acompanhado de um Líder Técnico, Engenheiro Sênior ou Arquiteto de Dados. Sua função envolve orientar clientes nas decisões sobre pipelines, serviços, otimização de custo e performance, além de identificar oportunidades de melhoria em arquiteturas existentes e comunicá-las aos responsáveis técnicos de maior senioridade. Também participa ativamente do desenvolvimento de colegas menos experientes, realizando revisões técnicas e mentorias para Juniors ou membros em fase de crescimento. Além disso, espera-se que o profissional tenha foco em gerar valor real para o negócio, atuando com empatia, escuta ativa e visão estratégica. É fundamental que saiba encantar o cliente com entregas bem estruturadas, comunicação clara e postura parceira, trabalhando lado a lado para resolver as principais dores do projeto com foco em resultados concretos.


Responsabilidades:
  1. Projetar, construir e manter pipelines de dados usando PySpark, SQL e serviços AWS.
  2. Gerenciar ingestão e transformação de dados com eficiência, reutilização e boas práticas.
  3. Atuar em projetos com Glue, EMR, Redshift, Athena, Lambda e Step Functions.
  4. Otimizar ciclos de vida de dados no S3 e garantir performance das consultas.
  5. Gerar valor através da organização e governança dos dados.
  6. Trabalhar com ambientes críticos e de grande volume.
  7. Conduzir reuniões com clientes, explicar decisões técnicas e propor soluções escaláveis.
  8. Antecipar riscos técnicos e sugerir soluções.
  9. Orientar profissionais Júnior e participar ativamente da disseminação de boas práticas no time.

Requisitos:
  1. Experiência prática com projetos de média e alta complexidade em ambientes de dados.
  2. Vivência em construção de pipelines com Spark/PySpark e SQL avançado.
  3. Domínio da stack analítica AWS: S3, Glue, EMR, Athena, Redshift, Lambda, Step Functions.
  4. Experiência com CI/CD, versionamento com Git e deploy automatizado.
  5. Boa comunicação com stakeholders técnicos e não técnicos.
  6. Visão clara de fluxo de dados e arquitetura em cloud.
  7. Autonomia para execução e responsabilidade sobre entregas.

Hard Skills:
  1. PySpark avançado.
  2. SQL avançado.
  3. Stack analítica AWS: S3, Glue, EMR, Athena, Redshift, Lambda, Step Functions.
  4. Git + CI/CD.
  5. Amazon Redshift: Criação e manutenção de tabelas, distribuição (KEY, EVEN, ALL), sort keys, vacuum/stats, materialized views, COPY/UNLOAD, WLM.

Soft Skills:
  1. Postura consultiva.
  2. Organização e autonomia.
  3. Clareza e estruturação na comunicação.
  4. Capacidade de antecipação de problemas e riscos.
  5. Espírito de equipe e orientação a resultado.
  6. Capacidade de orientar e influenciar colegas menos experientes.
  7. Inglês intermediário (desejável).

Certificações desejáveis:
  1. AWS Data Engineer Associate.
  2. AWS Solutions Architect Associate.

Diferenciais:
  1. Conhecimento/experiência em Terraform, DBT, DuckDB, Docker.
  2. Databricks Certified Data Engineer Associate.

Atuação remota - Contrato até Dezembro/2025.
Contratação PJ - horista.

Valorizamos cada voz e cada pessoa, porque sabemos que a diversidade nos torna mais inovadores e fortes.

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.

Ofertas semelhantes

Engenheiro de Dados AWS Pleno (Remoto - Temporário)

Dataside

São José dos Campos

Teletrabalho

BRL 20,000 - 80,000

Há 27 dias