O que buscamos :
Engenharia de Dados FICO Platform (Decision Management).
Principais responsabilidades :
- Liderar a ingestão e integração de dados de múltiplas fontes (core bancário, bureaus de crédito, meios de pagamento, CRM, canais digitais) para a FICO Platform (ex. : Data Management, Decision Modeler, Strategy / Decision Flow), utilizando APIs, streaming (Kafka), CDC e processamento batch;
- Desenhar e implementar a modelagem de dados e a arquitetura para decisioning (camadas raw / curated / serving; schemas para features, regras e inputs de score; event sourcing) e estabelecer data contracts com squads de produto;
- Desenvolver pipelines de dados de baixa latência para decisões em tempo real (sub-100 ms / sub-segundo, quando aplicável) e pipelines analíticos robustos para processamento em lote (treino e refresh de modelos, relatórios regulatórios);
- Implementar e gerenciar estratégias de data quality e observabilidade end-to-end (validações sintáticas / semânticas, SLIs / SLOs, data drift / feature drift), além de estabelecer catálogo e linhagem de dados (ex. : Collibra / Purview / Atlan) e gestão de metadados para explicabilidade (audit trails);
- Garantir a aplicação de políticas de acesso (IAM, RBAC / ABAC), proteção de dados sensíveis (PII / PCI), conformidade regulatória (LGPD, PCI-DSS), criptografia, mascaramento / tokenização e segregação de ambientes;
- Provisionar camadas de serving para motores de decisão FICO (regras / estratégias), MLOps / feature store para modelos de risco / fraude / propensão; integrar com canais de consumo (APIs REST / GraphQL) e orquestrar / versionar decisões;
- Atuar em colaboração com times de Risco / Analytics, Fraude, Marketing, TI e parceiros FICO; assegurar a sustentação operacional dos pipelines (SLA / SLO), gerenciar incidentes e promover a melhoria contínua;
- Aplicar princípios de DevOps / DataOps, incluindo versionamento (Git), CI / CD (Azure DevOps / GitHub Actions), infraestrutura como código (Terraform), testes automatizados, promoção entre ambientes e gestão de custos (FinOps).
Requisitos e qualificações :
- Formação superior completa em Computação, Engenharias, Sistemas de Informação ou áreas correlatas;
- Pós-graduação ou MBA é um diferencial;
- Experiência sólida de 5 a 8 anos em engenharia de dados, com vivência comprovada na FICO Platform (Decision Management / Decision Modeler / Blaze Advisor, Decision Flows / Strategies) ou soluções correlatas (Falcon, TRIAD, Customer Dialogue Manager);
- Domínio de integração de dados via APIs REST, mensageria (Kafka) e Change Data Capture (CDC);
- Proficiência em SQL avançado e programação (Python / Scala / Java);
- Conhecimento em plataformas de cloud (AWS, Azure ou GCP), data lakes / warehouses (Delta Lake / Lakehouse, Snowflake, BigQuery, Synapse / Redshift) e orquestradores (Airflow / ADF / Composer);
- Experiência com governança, qualidade e segurança de dados (LGPD / PCI-DSS, PII), ferramentas de catálogo / linhagem e monitoramento (Datadog, Prometheus, Monte Carlo).
Diferenciais :
- Experiência com scoring / credit risk, fraude (FICO Falcon), coleções (TRIAD) e marketing decisioning;
- Conhecimento em feature stores (Feast / Databricks) e dbt;
- Certificações FICO e em plataformas de cloud (AWS, Azure, GCP).
Descrição comportamental :
- Tenha comunicação executiva e boa habilidade de apresentação;
- Possua pensamento sistêmico e visão de arquitetura;
- Seja colaborativa e saiba trabalhar em equipe;
- Seja orientada a resultados e focada em entrega de valor;
- Tenha capacidade de resolver problemas complexos e propor soluções inovadoras;
- Demonstre senso de urgência e resiliência em ambientes dinâmicos;
- Atue com ética e alto padrão de compliance.
Big enough to deliver – small enough to care.