Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Senior Data Platform Engineer

Crif

Lazio

In loco

EUR 50.000 - 70.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un gruppo internazionale specializzato in soluzioni IT cerca un Senior Data Platform Engineer a Napoli, Campania. Il candidato ideale avrà oltre 5 anni di esperienza nella data engineering e sarà responsabile dell'architettura della piattaforma dati. Le responsabilità includono la creazione di framework self-service, l'integrazione di prodotti enterprise e la definizione di standard tecnici. La posizione richiede competenze in ambienti cloud, scripting e utilizzo di strumenti di integrazione dati.

Competenze

  • 5+ anni di esperienza in data engineering o moderne data platform.
  • Forte competenza in ambienti Cloud.
  • Capacità di sviluppo pipeline e automazioni.

Mansioni

  • Guidare l'architettura della data platform.
  • Implementare avanzate capabilitiesself-service.
  • Monitorare e ottimizzare la piattaforma.

Conoscenze

Data engineering
Cloud (Azure, AWS, GCP)
ETL/ELT
Data integration tools
API REST
Test Driven Design (TDD)
AI automation
Data Mesh principles

Strumenti

Apache Iceberg
Delta Lake
Informatica PowerCenter
Talend
Kafka
Descrizione del lavoro
Overview

CRIF è un Gruppo internazionale innovativo specializzato in soluzioni IT, sistemi decisionali, outsourcing, software bancari e servizi di consulenza; i nostri clienti sono principalmente società finanziarie, compagnie assicurative, utilities e imprese e li supportiamo in ogni fase del rapporto con i loro clienti. Stiamo costruendo una Self-Serve Data Platform enterprise seguendo i principi della Data Mesh architecture. Di seguito il nostro modello con le figure chiave : I data owner (domain expertse business owner) mantengono il controllo e la responsabilità dei loro dati. Ogni domain expert definisce autonomamente i propri Data Product : struttura, semantica, politiche di accesso. Il nostro team costruisce la piattaforma tecnologica che abilita questa autonomia : infrastruttura cloud-native basata su data engineering, capabilities di data streaming, orchestrazione, governance e tooling self-service.

Responsibilities
  • Guiderai l'architettura della data platform : collaborerai con altre figure Senior nellaprogettazione dell'ecosistema di prodotti e servizi (Databricks, streaming platform, orchestration, catalog) definendo come si integrano e comunicano.
  • Implementerai capabilitiesself-service avanzate : costruirai framework, API, SDK che permettono ai domain team di creare data product in autonomia con pattern consistenti.
  • Integrerai e customizzerai prodotti enterprise : installerai e adatterai soluzioni dei partner tecnologici alle esigenze aziendali, bilanciando out-of-the-box vs customizzazione.
  • Progetterai automazioni end-to-end : on-boarding automatico di sorgenti dati, pipeline di governance, processi di data quality, workflow di deployment.
  • Definirai standard tecniche best practice : template riusabili, linee guida architetturali, pattern per integrazione, coding standards per componenti condivisi.
  • Implementerai strategie di governance federata : bilancerai controllo centralizzato (compliance, security) con autonomia dei domain team.
  • Farai da technicallead e mentor : guidi il team su scelte tecniche, code review, knowledge sharing, escalation tecnica.
  • Collaborerai con stakeholder multipli : domain team per capire requisiti, vendor per sfruttare al meglio i loro prodotti, leadership per roadmap strategica.
  • Monitorerai e ottimizzerai la piattaforma : garantirai SLA, performance, cost optimization, scalabilità dell'intera infrastruttura.
Qualifications
  • 5+ anni di esperienza in data engineering, data warehousing o moderne data platform, con track record su progetti enterprise complessi.
  • Esperienza con ambienti Cloud (Azure, AWS o GCP) - provisioning risorse, networking, security base.
  • Strong programming skills : sviluppo pipeline, automazioni, framework riusabili.
  • ETL / ELT enterprise-grade : esperienza con processi batch complessi, CDC (Change Data Capture), incremental loads, data quality checks.
  • Esperienza con piattaforme di data integration (Informatica PowerCenter / IICS, Ab Initio, Talend, Oracle ODI, DataStage) e/o modern data streaming (Kafka / Confluent, Flink).
  • Esperienza di utilizzo di API REST, OpenAPI, JSON Schema per integrazione tra sistemi.
  • Conoscenza del Test Driven Design (TDD).
  • AI e automazione : Esperienza con AI agents per automazione platform (auto-tuning, anomaly detection, self-healing).
  • Conoscenza di RAG pipelines per documentation intelligente o metadata discovery.
  • Familiarità con LLM integration per natural language interfaces alla piattaforma.
  • Utilizzo quotidiano di AI coding assistants (GitHub Copilot, Cursor) per accelerare sviluppo.
  • Developer experience : capacità di 4 pilastri Data Mesh e hai esperienza pratica nell'implementare il pilastro "self-serve data infrastructure as a platform".
  • Esperienza hands‑on con Apache Iceberg o Delta Lake - governance, performance tuning, migration strategies.
  • Hai costruito data catalogs o integrato tool come Collibra, Alation, Purview con la piattaforma.
  • Certificazioni : Platform thinking - pensi a riusabilità, scalabilità, multi-tenancy by design, non solo alla soluzione puntuale.
  • Service mindset - i tuoi "clienti" sono i domainteam, la loro produttività è la tua metrica di successo.
  • Capacità di navigare ambiguità e vincoli - bilancire requisiti business, limitazioni tecniche, budget, time-to-market.
  • Leadership tecnicasena ego - mentori, fai crescere il team, condividi ownership, celebri successi altrui.
  • Pragmatismo architetturale - sai quando usare il 20% di un prodotto che risolve l'80% del problema vs customizzazione completa.
  • Orientamento al valore - valuti ROI di ogni iniziativa, non ti innamori della tecnologia per la tecnologia.
  • Attitudine alla sperimentazione strutturata - PoC, spike, A / B test su nuove capabilities prima di rollout completo.
Location

Senior Data Platform Engineer • Napoli, Provincia di Napoli; Campania, Italy

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.