Job Search and Career Advice Platform

Senior Data Platform Engineer

Sii tra i primi a mandare la candidatura.
Solo per membri registrati
Roma
EUR 50.000 - 70.000
Sii tra i primi a mandare la candidatura.
3 giorni fa
Descrizione del lavoro

CRIF è un Gruppo internazionale innovativo specializzato in soluzioni IT, sistemi decisionali, outsourcing, software bancari e servizi di consulenza; i nostri clienti sono principalmente società finanziarie, compagnie assicurative, utilities e imprese e li supportiamo in ogni fase del rapporto con i loro clienti.

Stiamo costruendo una Self-Serve Data Platform enterprise seguendo i principi della Data Mesh architecture

. Di seguito il nostro modello con le figure chiave :

data owner (domain expertse business owner) mantengono il controllo e la responsabilità dei loro dati

Ogni domain expert definisce autonomamente i propri Data Product : struttura, semantica, politiche di accesso

Il nostro team costruisce la piattaforma tecnologica che abilita questa autonomia : infrastruttura cloud-native basata su data engineering, capabilities di data streaming, orchestrazione, governance e tooling self-service

Il tuo ruolo? Guidi l'architettura e l'implementazione insieme ad altre figure senior, della self-serve data platform - il layer abilitante che permette ai data owner (business) di creare e gestire i loro data product in autonomia, collaborando con loro per capirne i requisiti e fornendo governance, tooling e supporto tecnico.

Se vieni da architetture tradizionali (ex : DWH), vuoi rimetterti in gioco usando tecnologie più innovative e conosci le sfide ed i concetti delle piattaforme di dati moderne, questa è la tua opportunità! Cosa farai concretamente

Guiderai l'architettura della data platform :

collaborerai con altre figure Senior nellaprogettazione dell'ecosistema di prodotti e servizi (Databricks, streaming platform, orchestration, catalog) definendo come si integrano e comunicano

Implementerai capabilitiesself-service avanzate :

costruirai framework, API, SDK che permettono ai domain team di creare data product in autonomia con pattern consistenti

Integrerai e customizzerai prodotti enterprise :

installerai e adatterai soluzioni dei partner tecnologici alle esigenze aziendali, bilanciando out-of-the-box vs customizzazione

Progetterai automazioni end-to-end :

on-boarding automatico di sorgenti dati, pipelinedi governance, processidi data quality, workflow di deployment

Definirai standard tecnicie best practice :

template riusabili, linee guida architetturali, pattern per integrazione, coding standards per componenti condivisi

Implementerai strategie di governance federata :

bilancerai controllo centralizzato (compliance, security) con autonomia dei domain team

Farai da technicallead e mentor :

guidi il team su scelte tecniche, code review, knowledge sharing, escalation tecnica.

Collaborerai con stakeholder multipli :

domain team per capire requisiti, vendor per sfruttare al meglio i loro prodotti, leadership per roadmap strategica

Monitorerai e ottimizzerai la piattaforma :

garantirai SLA, performance, cost optimization, scalabilità dell'intera infrastruttura

Solide competenze tecniche : 5+ anni di esperienza

in

data engineering, data warehousing

moderne data platform,

con

track record su progetti enterprise complessi

Esperienza con ambienti

Cloud (Azure, AWS o GCP) - provisioning risorse, networking, security base

Strong programming skills :

sviluppo pipeline, automazioni, framework riusabili

ETL / ELT enterprise-grade :

esperienza con processi batch complessi, CDC (Change Data Capture), incremental loads, data quality checks

Esperienza con piattaforme di

data integration (Informatica PowerCenter / IICS, Ab Initio, Talend, Oracle ODI, DataStage) e / o modern

data streaming

(Kafka / Confluent, Flink) Infrastructure-as-code mastery :

Terraform, Pulumi o simili

Esperienza di utilizzo di

API REST, OpenAPI, JSON Schema

perintegrazione tra sistemi.

API design e governance :

REST, GraphQL, event-driven architecture

Conoscenza del

Test Driven Design (TDD) AI e automazione :

Esperienza con

AI agents

perautomazione platform (auto-tuning, anomaly detection, self-healing) Conoscenza di

RAG pipelines

perdocumentation intelligente o metadata discovery

Familiarità con

LLM integration

pernatural language interfaces alla piattaforma

Utilizzo quotidiano di

AI coding assistants (GitHub Copilot, Cursor) per accelerare sviluppo

Developer experience :

Capiscii 4 pilastri

Data Mesh

e hai esperienza pratica nell'implementare il pilastro "self-serve data infrastructure as a platform" Esperienza hands-on con

Apache Iceberg

Delta Lake - governance, performance tuning, migration strategies

Hai costruito

data catalogs

o integrato tool come Collibra,Alation, Purview con la piattaforma

Certificazioni :

Databricks Certified Data Engineer Professional

o Solutions Architect

AWS / Azure / GCP

certifications (Data Engineer,Solutions Architect) Confluent CertifiedAdministrator

for Apache Kafka

Leadership Tecnica

Platform thinking - pensi a riusabilità, scalabilità, multi-tenancy by design, non solo alla soluzione puntuale

Service mindset - i tuoi "clienti" sono i domainteam, la loro produttività è la tua metrica di successo

Capacità di navigare ambiguitàe vincoli - bilancirequisiti business, limitazioni tecniche, budget, time-to-market

Leadership tecnicasenza ego - mentori,fai crescere il team, condividi ownership, celebri successi altrui

Pragmatismo architetturale - sai quando usare il 20% di un prodottoche risolve l'80% del problema vs customizzazione completa

Orientamento al valore - valutiROI di ogni iniziativa, non ti innamoridella tecnologia per la tecnologia

Attitudine alla sperimentazione strutturata - PoC, spike,A / B test su nuove capabilities prima di rollout completo