Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Experteer Italy

Torino, Roma, Bologna

In loco

EUR 40.000 - 60.000

Tempo pieno

Oggi
Candidati tra i primi

Descrizione del lavoro

Un'azienda tecnologica innovativa cerca un Data Engineer a Torino. Il candidato si occuperà di progettare e ottimizzare pipeline di dati, collaborando con team di prodotto e applicando best practices. È richiesta una laurea in Informatica, esperienza in Python e Apache Spark, e conoscenza delle architetture dati moderne. Offriamo un contratto a tempo indeterminato e un ambiente di lavoro stimolante.

Competenze

  • Esperienza avanzata in Python e Apache Spark.
  • Competenze solide in SQL e modellazione dati.
  • Interesse per soluzioni AI-driven applicate a dati.

Mansioni

  • Progettazione e sviluppo di pipeline batch e streaming.
  • Applicazione di principi di architettura dati moderna.
  • Collaborazione con i team di prodotto.

Conoscenze

Python
Apache Spark
SQL
Problem solving
Docker
Kubernetes
Inglese fluente

Formazione

Laurea Magistrale in Informatica o Ingegneria Informatica

Strumenti

AWS
GCP
Kafka
Flink
Descrizione del lavoro

Leithà, società del Gruppo Unipol dedicata alla sperimentazione di nuove tecnologie e allo sviluppo di soluzioni innovative di prodotto, processo e servizio a supporto dell’evoluzione del business assicurativo, è alla ricerca di un

Data Engineer

Sede di lavoro: Milano centro/Bologna/Torino/Roma

Il profilo ricercato sarà inserito nella struttura Computer Science con focus su pipeline di dati complesse e architetture scalabili.

In particolare, sarà incaricato delle seguenti attività:

  • Progettazione, sviluppo e ottimizzazione di pipeline batch e streaming ad alte prestazioni, curando qualità, scalabilità e portabilità tra on-prem e cloud;
  • Applicazione dei principi di architettura dati moderna, favorendo la costruzione di basi dati analitiche comuni e governate;
  • Implementazione di strumenti e workflow per la data standardization, l’arricchimento dei dati e la formalizzazione di metadati.
  • Collaborazione con i team di prodotto, progettando soluzioni riutilizzabili in diversi use case, ma concepite per rispondere alle richieste del business.
  • Promozione di best practice per testing, CI/CD, monitoraggio e observability delle pipeline;
  • Contributo nella definizione di librerie e strumenti interni a supporto della data platform di Gruppo.
Requisiti richiesti:
  • Laura Magistrale in Informatica, Ingegneria Informatica o equivalente conseguita con ottima votazione finale;
  • Esperienza avanzata in Python e Apache Spark, apprezzata la conoscenza di Scala e l’attitudine a imparare nuovi linguaggi.
  • Competenze solide in SQL e nella modellazione dati (data warehousing);
  • Esperienza con container (Docker, Kubernetes) e cloud (AWS o GCP);
  • Interesse per soluzioni AI-driven applicate a dati e metadat;.
  • Inglese fluente, parlato e scritto;
  • Capacità di collaborazione e di condivisione di best practice;
  • Problem solving e attitudine a sviluppare sensibilità su argomenti di dominio.
Costituisce requisito preferenziale:
  • Conoscenza di sistemi di streaming/messaging (Kafka, Flink).

Il candidato in possesso delle competenze ed esperienze richieste sarà inserito con rapporto di lavoro a tempo indeterminato ai sensi del CCNL Commercio.

La ricerca è rivolta a candidati ambosessi ai sensi della L. 903/77 e D.lgs. 198/2006.

Rappresenta requisito preferenziale per la selezione l’appartenenza alle categorie protette (ex art. 1 L. 68/99).

Tempo pieno
Posting Date: 2025-09-26

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.