Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Akkodis

Milano

Ibrido

EUR 35.000 - 50.000

Tempo pieno

Oggi
Candidati tra i primi

Descrizione del lavoro

Una azienda leader nel settore della consulenza tecnologica ricerca un Data Engineer per progettare e mantenere pipeline ETL/ELT. Il candidato ideale ha solidi background in Python e SQL, nonché esperienza con Apache Airflow. Lavoro ibrido disponibile tra Milano e remoto. Offriamo un percorso formativo personalizzato e opportunità di crescita.

Servizi

Percorso di carriera strutturato
Piani di formazione
Corporate Benefits

Competenze

  • 3-5 anni di esperienza come Data Engineer o ETL Developer.
  • Competenze solide in Python per pipeline ETL/ELT.
  • Esperienza pratica con Apache Airflow.
  • Conoscenza di containerizzazione e deployment.

Mansioni

  • Progettare, costruire e mantenere pipeline ETL/ELT.
  • Collaborare con team per tradurre requisiti di business in soluzioni tecniche.
  • Monitorare e gestire incidenti delle pipeline.

Conoscenze

Python
SQL
Apache Airflow
Data Warehousing
Git
Problem-solving
Teamwork

Formazione

Laurea in Informatica, Ingegneria, Data Science o affini

Strumenti

PostgreSQL
Docker
Descrizione del lavoro

Akkodis è un'azienda leader che opera nel settore della consulenza e dei servizi tecnologici. È specializzata in soluzioni di ingegneria, IT e digitalizzazione, offrendo supporto a diverse industrie, tra cui automotive, aerospaziale, energia, life sciences e telecomunicazioni. Akkodis si concentra sull'innovazione e sulla trasformazione digitale, aiutando le aziende a ottimizzare i loro processi e a implementare nuove tecnologie.

Con la passione per la tecnologia e il talento, il gruppo, composto da più di 40.000 ingegneri ed esperti digitali e con un fatturato di €4bn, offre una profonda esperienza intersettoriale in 28 paesi tra Nord America, EMEA e APAC.

Akkodis vanta un’esperienza quarantennale e un forte know-how in settori tecnologici chiave come la mobilità, i servizi software e tecnologici, la robotica, i test, le simulazioni, la sicurezza dei dati, l'intelligenza artificiale e l'analisi dei dati.

La divisione IT di Akkodis è dedicata all'ICT e alla Digital Transformation, composta da oltre 200 consulenti altamente specializzati presenti su scala nazionale. Offriamo una vasta gamma di servizi, unendo talento e tecnologia per ottimizzare i processi IT e promuovere l'innovazione. Tra i nostri servizi principali troviamo Digital Transformation, Cloud Technologies e Data Strategy, che comprendono attività come ad esempio Software Engineering, Migrazione al Cloud, Data Governance, Artificial Intelligence, etc.

Nell’ottica di un potenziamento della divisione, ricerchiamo una figura di:

Entra a far parte della nostra divisione Digital, un gruppo di 200 consulenti che operano in Italia, specializzati nel settore ICT e nella Digital Transformation. La nostra forza risiede nell'integrazione delle nostre competenze, che ci consente di avere una visione a 360° delle esigenze tecnologiche e innovative delle aziende.

Quale sarà il tuo contributo in Akkodis?

All'interno nella nostra Divisione Digital, sarai coinvolto/a in un progetto in ambito Digital.

Il candidato ideale avrà la responsabilità di progettare, sviluppare e mantenere pipeline di integrazione dati end-to-end (ETL/ELT). Il candidato lavorerà su ingestion, trasformazione e caricamento dati in data warehouse/data lake, collaborando con team di Analytics, Data Science e prodotto. Sarà responsabile di garantire qualità, affidabilità e scalabilità delle pipeline, nonché di seguire best practice di data governance e CI/CD.

Ti occuperai di:

  • Pogettare, costruire e mantenere pipeline ETL/ELT robuste ed efficienti per ingestion, trasformazione e caricamento dati.
  • Sviluppare trasformazioni dati robuste utilizzando Python e SQL, includendo data cleaning, enrichment e validation.
  • Implementare orchestrazione di workflow con Apache Airflow (DAG, task, sensori, SLA, gestione errori) e monitorare l’esecuzione delle pipeline.
  • Gestire integrazione con database relazionali (es. PostgreSQL) e data warehousing, modellando dati e ottimizzando query/indici.
  • Collaborare con Analytics, Data Science e prodotto per tradurre requisiti di business in soluzioni tecniche robuste e scalabili.
  • Applicare pratiche di CI/CD per pipeline di dati (versioning, test, deployment automatizzato).
  • Monitorare le pipeline, gestire incidenti, log e remediation.

Requisiti per iniziare il tuo percorso di crescita:

  • Laurea in Informatica, Ingegneria, Data Science o campo affine (o esperienza equivalente).
  • Esperienza 3–5 anni come Data Engineer o ETL Developer.
  • Competenze solide in Python per pipeline ETL/ELT e trasformazioni dati.
  • Esperienza pratica con Apache Airflow (DAG, operatori, SLA, gestione errori).
  • Esperienza con PostgreSQL (SQL avanzato, ottimizzazione, indici, partizioni).
  • Conoscenza di containerizzazione e deployment (Docker; Kubernetes è preferibile ma non obbligatorio).
  • Buona conoscenza di Git e principi di CI/CD.
  • Ottime capacità analitiche e problem-solving, unite a una forte attitudine al lavoro di squadra e alla comunicazione interpersonale.

Contratto a tempo indeterminato

  • Un percorso di carriera strutturato e personalizzato, con possibilità di crescita verticale e trasversale
  • Ti supporteremo grazie ai nostri piani di formazione, ad una performance review annuale, ad un affiancamento nelle fasi iniziali di ingresso, unitamente a follow-up con figure Manageriali e HR Business Partner
  • Avrai a disposizione una Piattaforma di Corporate Benefits

Milano/Remoto

Senior Software Engineer, AI Model serving - Milan, Italy
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.