Ativa os alertas de emprego por e-mail!

Engenheiro De Dados & Integrações (Python/Aws)

Beegol

Porto Velho

Presencial

BRL 20.000 - 80.000

Tempo parcial

Há 9 dias

Resumo da oferta

Uma plataforma de Machine Learning está buscando um profissional para desenvolver soluções escaláveis e otimizar códigos. O candidato ideal deve ter experiência em Python, APIs com Flask/FastAPI, SQL e AWS. Esta posição oferece a oportunidade de trabalhar em um ambiente colaborativo e inovador em Porto Velho, Rondônia.

Qualificações

  • Sólido conhecimento em Python para desenvolver módulos reutilizáveis.
  • Experiência com APIs em Flask/FastAPI.
  • SQL avançado e modelagem de bancos de dados relacionais.

Responsabilidades

  • Apoiar a transformação de análises em soluções escaláveis.
  • Desenvolver e manter pipelines de dados e rotinas de machine learning.
  • Criar e manter integrações de sistemas via APIs.

Conhecimentos

Python
Flask/FastAPI
SQL
AWS
Linux
Airflow

Formação académica

Formação superior em Computação, Engenharia ou áreas correlatas

Ferramentas

Docker
Kubernetes
Descrição da oferta de emprego
Sobre a Beegol

Beegol é uma plataforma de Machine Learning dedicada a melhorar a Qualidade da Experiência (QoE) de clientes de banda larga e Wi-Fi.

Com ferramentas de detecção em tempo real, ajudamos operadoras de telecom a identificar e corrigir problemas antes mesmo que os clientes percebam. Isso significa ações mais rápidas, redução de custos de rede e maior satisfação do usuário.

Desafio

Estamos expandindo nosso time e buscamos alguém que seja a ponte entre Ciência de Dados e Engenharia de Software: capaz de transformar análises e pilotos em soluções escaláveis, otimizar código e construir integrações robustas via APIs. Você terá papel essencial para dar suporte a cientistas de dados, arquitetos e DevOps, garantindo que nossas soluções mantenham o padrão de eficiência e inovação que define a Beegol.

Responsabilidades
  • Apoiar o time de Ciência de Dados na transformação de análises e pilotos em soluções escaláveis.
  • Coletar, processar e armazenar dados em larga escala, com foco em eficiência e confiabilidade.
  • Desenvolver e manter pipelines de dados (ETL/ELT) e rotinas de machine learning em produção.
  • Criar e manter integrações de sistemas via APIs (Flask/FastAPI).
  • Otimizar código Python para melhor performance e manutenibilidade.
  • Orquestrar e monitorar pipelines (Airflow ou equivalentes).
  • Trabalhar em conjunto com a arquitetura e DevOps na AWS (ECS, Lambda, S3, CloudWatch).
Requisitos
  • Sólido conhecimento em Python, capaz de desenvolver módulos de software reutilizáveis e integráveis.
  • Experiência com APIs em Flask/FastAPI.
  • SQL avançado e modelagem de bancos de dados relacionais (PostgreSQL ou equivalents).
  • Vivência com plataforma AWS (S3, Lambda, ECS, IAM).
  • Conhecimentos de Linux.
  • Experiência em orquestração de tarefas (Airflow, Prefect ou similares).
  • Capacidade de trabalhar junto a cientistas de dados, transformando protótipos em produção.
  • Experiência com tuning e otimização de consultas e pipelines.
Desejável
  • Conhecimento em distribuição de cargas de dados (Spark, Hadoop ou MapReduce).
  • Vivência com deploy de modelos de machine learning.
  • Experiência com containers (Docker/Kubernetes).
Perfil
  • Orientado a resultados.
  • Versátil e prático.
  • Engajado e colaborativo.
  • Autodidata, com desejo de aprender constantemente.
Qualificação mínima
  • Formação superior em Computação, Engenharia ou áreas correlatas.
  • Inglês técnico.
  • Condições: Atuação PJ.
Envio e contato

Envie seu CV para ******.

Se tiver pretensão salarial, mencione no e-mail.

Saber mais sobre a Beegol: beegol.com

Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.

Ofertas semelhantes