Job Search and Career Advice Platform

Ativa os alertas de emprego por e-mail!

Engenharia de Dados FICO 128794

Gft

São Paulo

Presencial

BRL 80.000 - 120.000

Tempo integral

Há 27 dias

Cria um currículo personalizado em poucos minutos

Consegue uma entrevista e ganha mais. Sabe mais

Resumo da oferta

Uma companhia de tecnologia em São Paulo busca um engenheiro de dados experiente para liderar a integração de dados e modelagem na FICO Platform. O candidato ideal terá de 5 a 8 anos de experiência, domínio de integração de dados via APIs REST e proficiência em SQL e programação. Oferecemos um ambiente de trabalho colaborativo com foco em soluções inovadoras e compliance.

Qualificações

  • Experiência sólida de 5 a 8 anos em engenharia de dados.
  • Vivência comprovada na FICO Platform ou soluções correlatas.
  • Proficiência em SQL avançado e programação.

Responsabilidades

  • Liderar a ingestão e integração de dados de múltiplas fontes.
  • Desenhar e implementar a modelagem de dados e a arquitetura.
  • Garantir a aplicação de políticas de acesso e proteção de dados.

Conhecimentos

Integração de dados via APIs REST
Programação (Python / Scala / Java)
SQL avançado
DevOps / DataOps
Governança de dados

Formação académica

Formação superior em Computação, Engenharias, ou áreas correlatas

Ferramentas

FICO Platform (Decision Management)
AWS
Azure
GCP
Kafka
Descrição da oferta de emprego
O que buscamos :

Engenharia de Dados FICO Platform (Decision Management).

Principais responsabilidades :
  • Liderar a ingestão e integração de dados de múltiplas fontes (core bancário, bureaus de crédito, meios de pagamento, CRM, canais digitais) para a FICO Platform (ex. : Data Management, Decision Modeler, Strategy / Decision Flow), utilizando APIs, streaming (Kafka), CDC e processamento batch;
  • Desenhar e implementar a modelagem de dados e a arquitetura para decisioning (camadas raw / curated / serving; schemas para features, regras e inputs de score; event sourcing) e estabelecer data contracts com squads de produto;
  • Desenvolver pipelines de dados de baixa latência para decisões em tempo real (sub-100 ms / sub-segundo, quando aplicável) e pipelines analíticos robustos para processamento em lote (treino e refresh de modelos, relatórios regulatórios);
  • Implementar e gerenciar estratégias de data quality e observabilidade end-to-end (validações sintáticas / semânticas, SLIs / SLOs, data drift / feature drift), além de estabelecer catálogo e linhagem de dados (ex. : Collibra / Purview / Atlan) e gestão de metadados para explicabilidade (audit trails);
  • Garantir a aplicação de políticas de acesso (IAM, RBAC / ABAC), proteção de dados sensíveis (PII / PCI), conformidade regulatória (LGPD, PCI-DSS), criptografia, mascaramento / tokenização e segregação de ambientes;
  • Provisionar camadas de serving para motores de decisão FICO (regras / estratégias), MLOps / feature store para modelos de risco / fraude / propensão; integrar com canais de consumo (APIs REST / GraphQL) e orquestrar / versionar decisões;
  • Atuar em colaboração com times de Risco / Analytics, Fraude, Marketing, TI e parceiros FICO; assegurar a sustentação operacional dos pipelines (SLA / SLO), gerenciar incidentes e promover a melhoria contínua;
  • Aplicar princípios de DevOps / DataOps, incluindo versionamento (Git), CI / CD (Azure DevOps / GitHub Actions), infraestrutura como código (Terraform), testes automatizados, promoção entre ambientes e gestão de custos (FinOps).
Requisitos e qualificações :
  • Formação superior completa em Computação, Engenharias, Sistemas de Informação ou áreas correlatas;
  • Pós-graduação ou MBA é um diferencial;
  • Experiência sólida de 5 a 8 anos em engenharia de dados, com vivência comprovada na FICO Platform (Decision Management / Decision Modeler / Blaze Advisor, Decision Flows / Strategies) ou soluções correlatas (Falcon, TRIAD, Customer Dialogue Manager);
  • Domínio de integração de dados via APIs REST, mensageria (Kafka) e Change Data Capture (CDC);
  • Proficiência em SQL avançado e programação (Python / Scala / Java);
  • Conhecimento em plataformas de cloud (AWS, Azure ou GCP), data lakes / warehouses (Delta Lake / Lakehouse, Snowflake, BigQuery, Synapse / Redshift) e orquestradores (Airflow / ADF / Composer);
  • Experiência com governança, qualidade e segurança de dados (LGPD / PCI-DSS, PII), ferramentas de catálogo / linhagem e monitoramento (Datadog, Prometheus, Monte Carlo).
Diferenciais :
  • Experiência com scoring / credit risk, fraude (FICO Falcon), coleções (TRIAD) e marketing decisioning;
  • Conhecimento em feature stores (Feast / Databricks) e dbt;
  • Certificações FICO e em plataformas de cloud (AWS, Azure, GCP).
Descrição comportamental :
  • Tenha comunicação executiva e boa habilidade de apresentação;
  • Possua pensamento sistêmico e visão de arquitetura;
  • Seja colaborativa e saiba trabalhar em equipe;
  • Seja orientada a resultados e focada em entrega de valor;
  • Tenha capacidade de resolver problemas complexos e propor soluções inovadoras;
  • Demonstre senso de urgência e resiliência em ambientes dinâmicos;
  • Atue com ética e alto padrão de compliance.
    Big enough to deliver – small enough to care.
Obtém a tua avaliação gratuita e confidencial do currículo.
ou arrasta um ficheiro em formato PDF, DOC, DOCX, ODT ou PAGES até 5 MB.