Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer

UNIPOL

Milano

In loco

EUR 35.000 - 50.000

Tempo pieno

8 giorni fa

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda innovativa nel settore assicurativo cerca un Data Engineer per lavorare a Milano. Il candidato si occuperà di progettare e ottimizzare pipeline di dati ad alte prestazioni, applicando architetture dati moderne e collaborando con team di prodotto. È richiesta una Laurea Magistrale in Informatica, competenze avanzate in Python, Apache Spark e SQL, oltre a una conoscenza di container e cloud. Si offre un contratto a tempo indeterminato in un ambiente dinamico.

Competenze

  • Inglese fluente, parlato e scritto.
  • Attitudine a sviluppare sensibilità su argomenti di dominio.
  • Capacità di collaborazione e condivisione di best practice.

Mansioni

  • Progettazione e sviluppo di pipeline batch e streaming.
  • Applicazione di architettura dati moderna per basi dati analitiche.
  • Implementazione di strumenti per la data standardization.

Conoscenze

Python
Apache Spark
SQL
Docker
Kubernetes
AI-driven solutions

Formazione

Laurea Magistrale in Informatica

Strumenti

AWS
GCP
Kafka
Flink
Descrizione del lavoro

Leithà, società del Gruppo Unipol dedicata alla sperimentazione di nuove tecnologie e allo sviluppo di soluzioni innovative di prodotto, processo e servizio a supporto dell’evoluzione del business assicurativo (https://www.linkedin.com/company/leitha/?originalSubdomain=it), è alla ricerca di un Data Engineer

Sede di lavoro: Milano centro/Bologna/Torino/Roma

Il profilo ricercato sarà inserito nella struttura Computer Science con focus su pipeline di dati complesse e architetture scalabili.

Responsabilità
  • Progettazione, sviluppo e ottimizzazione di pipeline batch e streaming ad alte prestazioni, curando qualità, scalabilità e portabilità tra on-prem e cloud;
  • Applicazione dei principi di architettura dati moderna, favorendo la costruzione di basi dati analitiche comuni e governate;
  • Implementazione di strumenti e workflow per la data standardization, l’arricchimento dei dati e la formalizzazione di metadati.
  • Collaborazione con i team di prodotto, progettando soluzioni riutilizzabili in diversi use case, ma concepite per rispondere alle richieste del business.
  • Promozione di best practice per testing, CI/CD, monitoraggio e observability delle pipeline;
  • Contributo nella definizione di librerie e strumenti interni a supporto della data platform di Gruppo.
Requisiti richiesti
  • Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente conseguita con ottima votazione finale;
  • Esperienza avanzata in Python e Apache Spark, apprezzata la conoscenza di Scala e l’attitudine a imparare nuovi linguaggi;
  • Competenze solide in SQL e nella modellazione dati (data warehousing);
  • Esperienza con container (Docker, Kubernetes) e cloud (AWS o GCP);
  • Interesse per soluzioni AI-driven applicate a dati e metadat;
  • Inglese fluente, parlato e scritto;
  • Capacità di collaborazione e di condivisione di best practice;
  • Problem solving e attitudine a sviluppare sensibilità su argomenti di dominio.
Requisito preferenziale
  • Conoscenza di sistemi di streaming/messaging (Kafka, Flink).

Il candidato in possesso delle competenze ed esperienze richieste sarà inserito con rapporto di lavoro a tempo indeterminato ai sensi del CCNL Commercio.

La ricerca è rivolta a candidati ambosessi ai sensi della L. 903/77 e D.lgs. 198/2006.

Rappresenta requisito preferenziale per la selezione l’appartenenza alle categorie protette (ex art. 1 L. 68/99).

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.