A AB InBev é a cervejeira líder global e uma das 5 maiores empresas de produtos de consumo do mundo. Com mais de 500 marcas de cerveja, somos a número um ou dois em muitos dos principais mercados de cerveja do mundo, incluindo a América do Norte, América Latina, Europa, Ásia e África.
Criado em 2022, o Growth Group unifica as nossas equipas business-to-business (B2B), direct-to-consumer (DTC), Sales & Distribution e Marketing. Ao reunir funções tecnológicas e comerciais globais, o Growth Group permite-nos tirar o máximo partido dos dados e impulsionar a transformação digital e o crescimento orgânico da AB InBev em todo o mundo.
Como uma célula tecnológica de nossa organização, temos um objetivo simples: crescer. Crescer como pessoas, como profissionais, como empresa. Para alcançar isso, utilizamos a tecnologia para criar soluções digitais que simplificam a vida de nossos clientes, tornam suas decisões mais inteligentes e seus negócios mais lucrativos. Com escritório em São Paulo e Campinas, incentivamos nosso time a participar presencialmente em grandes eventos e reuniões significativas ao longo do ano.
Responsabilidades
- Implementar soluções ETL/ELT e integração de dados entre vários sistemas e fontes de dados.
- Conceber, implementar e manter pipelines de dados para ingerir, armazenar e processar grandes volumes de dados.
- Colaborar com outras equipes para garantir a segurança e a conformidade dos dados.
- Conceber, desenvolver e implementar soluções para otimizar o desempenho e a escalabilidade dos sistemas de processamento de dados.
Requerimentos e qualificações
- Licenciatura em Ciências Informáticas, Engenharia Informática, Sistemas de Informação, Análise de Desenvolvimento de Sistemas ou similar;
- Inglês Intermediário;
- Aplicar conhecimentos sobre conceitos e ferramentas de pipeline de dados para implementar tarefas de transformação, limpeza e agregação de dados.
- Utilizar estruturas e bibliotecas de pipeline de dados para automatizar tarefas de processamento de dados e otimizar fluxos de trabalho.
- Seguir as melhores práticas de desenvolvimento de pipelines de dados, incluindo controle de versões, testes e documentação exaustiva.
- Aplicar competências de programação em Python, PySpark, Scala e SQL para manipular e transformar dados de forma eficaz.
- Compreender e utilizar plataformas e serviços de computação em nuvem oferecidos por fornecedores como AWS, Azure e Google Cloud.
- Desenvolver pipelines de dados utilizando estruturas de orquestração (por exemplo, Apache Airflow, Luigi, Mage, Databricks Workflows), integrando com PySpark e/ou Scala, conforme necessário.
- Compreender e aplicar princípios de conceção de software a projectos de engenharia de dados.
- Aplicar técnicas de modelação de dados para conceber modelos de dados eficientes e escaláveis.
- Otimizar o desempenho das consultas PySpark e SQL, tendo em conta o volume de dados, a complexidade das consultas e os recursos do sistema.
- Utilizar ferramentas de dados para ingestão, transformação, análise e visualização.
- Raciocínio lógico e competências analíticas;
- Cumprimento de prazos e qualidade do trabalho;
- Diálogo eficaz e transparentecom outras áreas e colegas de trabalho;
- Capacidade de comunicação e relacionamento interpessoal para apresentar casos e discuti-los com outras áreas envolvidas;
Diferenciais
- Desenvolver e manter APIs para troca de dados entre aplicações.
- Experiência com plataformas de computação em nuvem (AWS, Azure, Google Cloud) e seus serviços.
- Utilizar estruturas de automação usando ferramentas como Azure DevOps, Terraform e Github Actions.
- Bonus baseado no desempenho*
- Bonus de assiduidade*
- Plano de pensão privado
- Auxílio refeição
- Dress code e escritório informal
- Seguro de saúde, dentário e de vida
- Descontos em medicamentos
- Auxílio creche
- Descontos em produtos Ambev*
- Garantia do material escolar
- Plataformas linguísticas e de formação
- Auxílio transporte