Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Senior Data Engineer

PayConductor.AI

Manaus

Presencial

BRL 80.000 - 120.000

Tempo integral

Ontem
Torna-te num dos primeiros candidatos

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma empresa de tecnologia em pagamentos, localizada em Manaus, busca um profissional para projetar e implementar pipelines de dados escaláveis. O candidato ideal terá sólida experiência em Python e SQL, conhecimentos em ferramentas de orquestração e cloud. O trabalho envolve garantir a qualidade dos dados e colaborar com a equipe de aprendizado de máquina. Se você se identifica com a criação de soluções robustas em dados, essa oportunidade é para você.

Qualificações

  • Experiência sólida com Python e SQL (SQL de verdade, não só SELECT *).
  • Conhecimento em ferramentas de orquestração (Airflow, Dagster, Prefect).
  • Experiência com cloud (AWS, GCP ou Azure) e seus serviços de dados.
  • Familiaridade com bancos relacionais e não-relacionais.
  • Entendimento de princípios de data quality e data governance.
  • Capacidade de debugar um pipeline às 23h sem chorar (muito).

Responsabilidades

  • Projetar e implementar pipelines de dados escaláveis para ingestão de múltiplas fontes.
  • Garantir qualidade, consistência e governança dos dados que alimentam os agentes de IA.
  • Construir data lakes e data warehouses.
  • Implementar processos de ETL / ELT eficientes e monitoráveis.
  • Colaborar com o time de ML para garantir que os dados estejam no formato certo.
  • Documentar schemas e linhagem de dados.

Conhecimentos

Python
SQL
Airflow
Dagster
Prefect
AWS
GCP
Azure
Data quality
Data governance

Ferramentas

Kafka
Kinesis
Descrição da oferta de emprego
Quem Somos

A PayConductor.AI está construindo a plataforma de orquestração de pagamentos mais inteligente do mundo. Não somos apenas mais uma fintech, estamos desenvolvendo uma frota de agentes de IA especializados que otimizam rotas de pagamento, reduzem custos e transformam dados financeiros complexos em insights acionáveis em tempo real.

Acreditamos que pagamentos devem ser inteligentes, fluidos e auto-otimizáveis. Nosso time é enxuto, rápido e obcecado em construir tecnologia que realmente funciona.

Se você quer fazer parte de algo que ainda não existe em nenhum outro lugar, seja bem-vindo.

Descrição

Dados são o novo petróleo. Só que petróleo não precisa ser limpo, transformado, versionado e disponibilizado em tempo real para uma frota de agentes de IA famintos por informação. Dados precisam. E é aí que você entra.

Na PayConductor, estamos construindo a infraestrutura de dados que vai alimentar a próxima geração de inteligência em pagamentos. Não estamos falando de dashboardzinhos bonitos, estamos falando de pipelines robustos que ingerem dados de adquirentes, bandeiras, Banco Central, e transformam tudo isso em combustível para IAs que tomam decisões em milissegundos.

Se você acha que um pipeline bem arquitetado é uma obra de arte, que data quality é questão de honra, e que "funciona na minha máquina" não é resposta aceitável, vem com a gente.

Responsabilidades
  • Projetar e implementar pipelines de dados escaláveis para ingestão de múltiplas fontes (APIs de adquirentes, arquivos de bandeiras, dados regulatórios).
  • Garantir qualidade, consistência e governança dos dados que alimentam os agentes de IA.
  • Construir data lakes e data warehouses que façam sentido (não aquele cemitério de tabelas que ninguém entende).
  • Implementar processos de ETL / ELT eficientes e monitoráveis.
  • Colaborar com o time de ML para garantir que os dados estejam no formato certo, na hora certa, no lugar certo.
  • Documentar schemas, linhagem de dados e processos como se o próximo engenheiro fosse um serial killer que sabe seu endereço.
Qualificações
  • Experiência sólida com Python e SQL (SQL de verdade, não só SELECT *).
  • Conhecimento em ferramentas de orquestração (Airflow, Dagster, Prefect).
  • Experiência com cloud (AWS, GCP ou Azure) e seus serviços de dados.
  • Familiaridade com bancos relacionais e não-relacionais.
  • Entendimento de princípios de data quality e data governance.
  • Capacidade de debugar um pipeline às 23h sem chorar (muito).
  • Diferenciais : experiência com dados financeiros / transacionais, conhecimento de streaming de dados (Kafka, Kinesis), familiaridade com o ecossistema de pagamentos mundial.
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.