
Ativa os alertas de emprego por e-mail!
Cria um currículo personalizado em poucos minutos
Consegue uma entrevista e ganha mais. Sabe mais
Uma empresa de tecnologia em São Paulo está em busca de um profissional com domínio em arquitetura e engenharia de dados. Você será responsável por garantir a estabilidade e escalabilidade das plataformas, liderar a evolução da arquitetura e apoiar o time em operações automatizadas. Buscamos alguém com forte conhecimento em ferramentas como AWS e GCP, além de experiência com Airflow e PySpark. Oferecemos benefícios como auxílio home office, plano de saúde de qualidade e horário flexível.
Somos a Framework Evoluímos grandes marcas em todo o mundo com transformação digital e crescemos continuamente através de agilidade, design e tecnologia. Fazer parte do nosso time é saber que a sua jornada será de desafios reais, de crescimento contínuo e de contato diário com referências em tecnologia.
Vem com a gente
É claro que temos Vale alimentação e refeição no cartão Swile com mais de R$
Garantir estabilidade, escalabilidade e governança das plataformas (AWS + GCP). Liderar a evolução da arquitetura e apoiar o time na construção de uma operação previsível, automatizada e de alta qualidade. O que é preciso para fazer parte do time?
Domínio em arquitetura e engenharia de dados, incluindo: Airflow, Airbyte, Spark / PySpark, EMR, EKS / Kubernetes, S3 / Lake, Redshift, BigQuery e DataFlow. Experiência com pipelines de dados de alta criticidade, com foco em modularização, automação e confiabilidade. Forte conhecimento em boas práticas de versionamento e desenvolvimento: Git, ambientes DEV / STG / PRD, CI / CD, testes e Data Quality. Vivência em governança de Data Lakes e Data Warehouses, garantindo reutilização de camadas e evitando duplicidades. Capacidade de traduzir regras de negócio complexas em soluções técnicas claras, robustas e escaláveis. Experiência atuando como referência técnica, incluindo mentoria e apoio a times de engenharia. Ingestão e Orquestração: Airflow, Airbyte, Lambdas, DataFlow, Scheduled Queries. Processamento Distribuído: PySpark (forte), Spark SQL, EMR, Dataproc, DLT (desejável).
Cloud : AWS (EKS, EMR, Lambda, S3, Redshift), GCP (BigQuery, DataFlow, Composer).
Infra as Code & DevOps : Terraform, Docker, Kubernetes, CI / CD. Data Quality & Linhagem : Great Expectations, DataHub ou similares. Governança & Segurança : IAM, VPN, segregação de ambientes.
A NOSSA EVOLUÇÃO É CRESCENTEE, para acompanhar esse crescimento, precisamos de pessoas que agreguem propondo ideias, soluções e desafios. Gostou da oportunidade?
Vamos juntos e faça parte da nossa história #vempraframe