Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Experteer Italy

Roma, Bologna, Torino, Milano

In loco

EUR 35.000 - 55.000

Tempo pieno

Oggi
Candidati tra i primi

Descrizione del lavoro

Un'importante società di tecnologia cerca un Data Engineer per progettare e ottimizzare pipeline dati complesse. Si richiede una laurea in Informatica, esperienza in Python e Apache Spark, e buona padronanza dell'inglese. Offriamo un contratto a tempo indeterminato e un ambiente di lavoro stimolante.

Competenze

  • Esperienza avanzata in Python e Apache Spark.
  • Competenze solide in SQL e modellazione dati.
  • Esperienza con container e cloud.

Mansioni

  • Progettazione e ottimizzazione di pipeline dati.
  • Applicazione di architetture dati moderne.
  • Collaborazione con team di prodotto.

Conoscenze

Python
Apache Spark
SQL
Docker
Kubernetes
Inglese fluente
Problem solving

Formazione

Laurea Magistrale in Informatica o Ingegneria Informatica

Strumenti

AWS
GCP
Kafka
Flink
Descrizione del lavoro

Leithà, società del Gruppo Unipol dedicata alla sperimentazione di nuove tecnologie e allo sviluppo di soluzioni innovative di prodotto, processo e servizio a supporto dell’evoluzione del business assicurativo, è alla ricerca di un Data Engineer.

Sede di lavoro: Milano centro/Bologna/Torino/Roma

Il profilo ricercato sarà inserito nella struttura Computer Science con focus su pipeline di dati complesse e architetture scalabili.

In particolare, sarà incaricato delle seguenti attività:

  • Progettazione, sviluppo e ottimizzazione di pipeline batch e streaming ad alte prestazioni, curando qualità, scalabilità e portabilità tra on-prem e cloud;
  • Applicazione dei principi di architettura dati moderna, favorendo la costruzione di basi dati analitiche comuni e governate;
  • Implementazione di strumenti e workflow per la data standardization, l’arricchimento dei dati e la formalizzazione di metadati.
  • Collaborazione con i team di prodotto, progettando soluzioni riutilizzabili in diversi use case, ma concepite per rispondere alle richieste del business.
  • Promozione di best practice per testing, CI/CD, monitoraggio e observability delle pipeline;
  • Contributo nella definizione di librerie e strumenti interni a supporto della data platform di Gruppo.

Requisiti richiesti:

  • Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente conseguita con ottima votazione finale;
  • Esperienza avanzata in Python e Apache Spark, apprezzata la conoscenza di Scala e l’attitudine a imparare nuovi linguaggi.
  • Competenze solide in SQL e nella modellazione dati (data warehousing);
  • Esperienza con container (Docker, Kubernetes) e cloud (AWS o GCP);
  • Interesse per soluzioni AI-driven applicate a dati e metadati;
  • Inglese fluente, parlato e scritto;
  • Capacità di collaborazione e di condivisione di best practice;
  • Problem solving e attitudine a sviluppare sensibilità su argomenti di dominio.

Costituisce requisito preferenziale:

  • Conoscenza di sistemi di streaming/messaging (Kafka, Flink).

Il candidato in possesso delle competenze ed esperienze richieste sarà inserito con rapporto di lavoro a tempo indeterminato ai sensi del CCNL Commercio.

La ricerca è rivolta a candidati ambosessi ai sensi della L. 903/77 e D.lgs. 198/2006.

Rappresenta requisito preferenziale per la selezione l’appartenenza alle categorie protette (ex art. 1 L. 68/99).

Tempo pieno

Posting Date: 2025-09-26

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.