Responsabilidades:
- Projetar, construir e manter pipelines de dados usando PySpark, SQL e serviços AWS.
- Gerenciar ingestão e transformação de dados com eficiência, reutilização e boas práticas.
- Atuar em projetos com Glue, EMR, Redshift, Athena, Lambda e Step Functions.
- Otimizar ciclos de vida de dados no S3 e garantir performance das consultas.
- Gerar valor através da organização e governança dos dados.
- Trabalhar com ambientes críticos e de grande volume.
- Conduzir reuniões com clientes, explicar decisões técnicas e propor soluções escaláveis.
- Antecipar riscos técnicos e sugerir soluções.
- Orientar profissionais Júnior e participar ativamente da disseminação de boas práticas no time.
Requisitos:
- Experiência prática com projetos de média e alta complexidade em ambientes de dados.
- Vivência em construção de pipelines com Spark/PySpark e SQL avançado.
- Domínio da stack analítica AWS: S3, Glue, EMR, Athena, Redshift, Lambda, Step Functions.
- Experiência com CI/CD, versionamento com Git e deploy automatizado.
- Boa comunicação com stakeholders técnicos e não técnicos.
- Visão clara de fluxo de dados e arquitetura em cloud.
- Autonomia para execução e responsabilidade sobre entregas.
Hard Skills:
- PySpark avançado.
- SQL avançado.
- Stack analítica AWS: S3, Glue, EMR, Athena, Redshift, Lambda, Step Functions.
- Git + CI/CD.
- Amazon Redshift: Criação e manutenção de tabelas, distribuição (KEY, EVEN, ALL), sort keys, vacuum/stats, materialized views, COPY/UNLOAD, WLM.
Soft Skills:
- Postura consultiva.
- Organização e autonomia.
- Clareza e estruturação na comunicação.
- Capacidade de antecipação de problemas e riscos.
- Espírito de equipe e orientação a resultado.
- Capacidade de orientar e influenciar colegas menos experientes.
- Inglês intermediário (desejável).
Certificações desejáveis:
- AWS Data Engineer Associate.
- AWS Solutions Architect Associate.
Diferenciais:
- Conhecimento/experiência em Terraform, DBT, DuckDB, Docker.
- Databricks Certified Data Engineer Associate.