
Ativa os alertas de emprego por e-mail!
Cria um currículo personalizado em poucos minutos
Consegue uma entrevista e ganha mais. Sabe mais
Uma empresa de tecnologia em São Paulo está em busca de um profissional experiente em engenharia de dados para garantir a governança das plataformas, evoluir a arquitetura e integrar dados de diversas fontes. O candidato deve possuir experiência em big data, cloud computing (AWS, GCP) e programação em Python, além de boas práticas de engenharia de software. Oferecemos um ambiente flexível, com benefícios atrativos e oportunidades de crescimento.
Somos a Framework! Evoluímos grandes marcas em todo o mundo com transformação digital e crescemos continuamente através de agilidade, design e tecnologia. Fazer parte do nosso time é saber que a sua jornada será de desafios reais, de crescimento contínuo e de contato diário com referências em tecnologia. Vem com a gente!
Benefícios? É claro que temos!
Vale alimentação e refeição no cartão Swile com mais de R$ 1.200,00 mensais
Auxílio home office no valor de R$ 150,00 mensais
Você decide entre vale-transporte ou vale-combustível, no caso de vagas híbridas e presenciais
Plano de saúde e auxílio odontológico de alta qualidade
Seguro de vida que cobre doenças ocupacionais
Participação nos lucros
Gympass e TotalPass para se manter saudável
Tribass para trocar moedas digitais por hospedagens e passagens aéreas com cobertura mundial
Licença maternidade estendida : 180 dias
Licença paternidade estendida : 30 dias
Desconto em consultas nutricionais
Desconto em terapia online
Clube de benefícios para quem gosta de comprar com descontos
Knowledge transfer através do Frame KT
Bonificação por indicação de novos colaboradores
E não paramos por aí!
Horário flexível
No dress code
Nas pausas presenciais, fique à vontade para comer pães, bolos e frutas
Ambiente leve, flexível e cultura colaborativa.
E qual será a sua missão na Framework?
Garantir estabilidade, escalabilidade e governança das plataformas (AWS + GCP)
Evoluir arquitetura e apoiar o time na construção de uma operação previsível, automatizada e de alta qualidade.
Garantir a qualidade, precisão e integridade dos dados, além de monitorar e otimizar o desempenho da infraestrutura de dados.
Integrar dados de diferentes fontes (como sistemas, APIs e arquivos) para criar uma fonte de dados unificada.
O que é preciso para fazer parte do time?
Experiência sólida em engenharia de dados em larga escala.
Proficiência em arquitetura e modelagem de dados analíticos (Data Lake, Data Warehouse, Lakehouse, Data Mesh).
Forte domínio em big data e processamento distribuído (Spark, Hadoop, Flink).
Cloud : AWS (EKS, EMR, Lambda, S3, Redshift), GCP (BigQuery, DataFlow, Composer)
Conhecimento avançado em SQL e otimização de queries complexas.
Programação em Python (preferencial), Scala ou Java para pipelines e integrações.
Vivência em nuvem (AWS, GCP ou Azure) com foco em serviços de dados e práticas de FinOps
Experiência com ETL / ELT (dbt, Glue, Dataflow) e orquestração (Airflow, Step Functions, Prefect).
Vivência em Data Mesh e Data Products.
Atuação prévia em estratégias AI-ready (preparação de dados para ML / GenAI).
Familiaridade com microsserviços, APIs, containers e mensageria (Kafka, Kinesis).
Conhecimento em governança de dados, segurança e compliance em ambientes críticos.
Experiência em arquiteturas híbridas e multimodelos (relacional e não-relacional : PostgreSQL, MongoDB, DynamoDB etc.).
Boas práticas de engenharia de software (versionamento, CI / CD, testes).
Capacidade de abstrair conceitos de negócio em métricas quantitativas (KPIs / OKRs).
Ser mão na massa!
A NOSSA EVOLUÇÃO É CRESCENTE!
E, para acompanhar esse crescimento, precisamos de pessoas que agreguem propondo ideias, soluções e desafios!
Gostou da oportunidade? Vamos juntos e faça parte da nossa história! #vempraframe