
Ativa os alertas de emprego por e-mail!
Cria um currículo personalizado em poucos minutos
Consegue uma entrevista e ganha mais. Sabe mais
Uma empresa de tecnologia está buscando um Arquiteto de Dados para liderar a evolução da arquitetura e garantir a estabilidade das plataformas na nuvem. O candidato ideal deve ter domínio em arquitetura de dados, experiência com ferramentas como Airflow e PySpark, e conhecimento sólido em boas práticas de desenvolvimento. Além disso, a empresa oferece benefícios incríveis, um ambiente colaborativo e a oportunidade de crescer com a equipe.
Somos a Framework! Evoluímos grandes marcas em todo o mundo com transformação digital e crescemos continuamente através de agilidade, design e tecnologia. Fazer parte do nosso time é saber que a sua jornada será de desafios reais, de crescimento contínuo e de contato diário com referências em tecnologia. Vem com a gente!
E não paramos por aí!
Horário flexível
No dress code
Nas pausas presenciais, fique à vontade para comer pães, bolos e frutas
Ambiente leve, flexível e cultura colaborativa.
Garantir estabilidade, escalabilidade e governança das plataformas (AWS + GCP)
Liderar a evolução da arquitetura e apoiar o time na construção de uma operação previsível, automatizada e de alta qualidade.
Domínio em arquitetura e engenharia de dados, incluindo : Airflow, Airbyte, Spark / PySpark, EMR, EKS / Kubernetes, S3 / Lake, Redshift, BigQuery e DataFlow.
Experiência com pipelines de dados de alta criticidade, com foco em modularização, automação e confiabilidade.
Forte conhecimento em boas práticas de versionamento e desenvolvimento : Git, ambientes DEV / STG / PRD, CI / CD, testes e Data Quality.
Vivência em governança de Data Lakes e Data Warehouses, garantindo reutilização de camadas e evitando duplicidades.
Capacidade de traduzir regras de negócio complexas em soluções técnicas claras, robustas e escaláveis.
Experiência atuando como referência técnica, incluindo mentoria e apoio a times de engenharia.
Ingestão e Orquestração : Airflow, Airbyte, Lambdas, DataFlow, Scheduled Queries.
Processamento Distribuído : PySpark (forte), Spark SQL, EMR, Dataproc, DLT (desejável).
Cloud : AWS (EKS, EMR, Lambda, S3, Redshift), GCP (BigQuery, DataFlow, Composer).
Infra as Code & DevOps : Terraform, Docker, Kubernetes, CI / CD.
Data Quality & Linhagem : Great Expectations, DataHub ou similares.
Governança & Segurança : IAM, VPN, segregação de ambientes.
E, para acompanhar esse crescimento, precisamos de pessoas que agreguem propondo ideias, soluções e desafios!
Gostou da oportunidade? Vamos juntos e faça parte da nossa história! #vempraframe