Overview
O seu papel como Software Engineer Senior (E3)
Responsibilities
- Desenvolver soluções de ponta a ponta em Python, desde a definição de arquitetura até testes e rollout em produção;
- Projetar e evoluir sistemas com foco em automação e Inteligência Artificial, direcionados à eficiência operacional do grupo SBF;
- Construir pipelines robustos de dados, arquiteturas de ML / AI e integrações com sistemas de automação;
- Garantir funcionalidade, manutenibilidade, escalabilidade e qualidade, aplicando boas práticas de engenharia e testes;
- Atuar no desenho de soluções com arquitetura evolutiva, avaliando constantemente novas tecnologias em IA, frameworks de ML / DL e práticas de automação;
- Colaborar com a evolução técnica do time, disseminando práticas de MLOps, testes de modelos, monitoramento e reprodutibilidade de experimentos;
- Trabalhar em um ambiente colaborativo, com pair programming, feedbacks contínuos e cultura de alta performance.
O que você precisa para essa posição no jogo
- Proficiência avançada em Python (orientação a objetos, concorrência, boas práticas de código);
- Experiência em frameworks de Machine Learning / Deep Learning (TensorFlow, PyTorch, Scikit-learn);
- Conhecimento em MLOps:
- pipelines de treinamento, versionamento de modelos (MLflow, DVC) e deploy em produção;
- Experiência com arquiteturas distribuídas e microsserviços;
- Conhecimento em Docker & Kubernetes para implantação escalável de modelos e serviços;
- Conhecimento em observabilidade e monitoramento aplicados a sistemas de IA e automação;
- Sólida prática em testes unitários, integração e validação de modelos;
- Capacidade de trabalhar em ambiente multifuncional e colaborativo, com autonomia;
- Embasamento teórico em ciência de dados, aprendizado de máquina e boas práticas de engenharia de software (DDD, design de código, paradigmas);
- Familiaridade com metodologias ágeis (Scrum, Kanban).
Seria legal se você conhecesse
- Google Cloud AI / ML Services (Vertex AI, AI Platform);
- Continuous Integration & Delivery aplicados a ML (CI / CD para pipelines de dados e modelos);
- Ferramentas de processamento de dados em streaming (Kafka, Pub / Sub);
- Boas práticas de DataOps e integração com times de dados e automação.