Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Telepass

Milano

In loco

EUR 40.000 - 60.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'importante azienda nel settore tecnologico cerca un Data Engineer per sviluppare prodotti di dati e gestire infrastrutture di data management. Richiesta esperienza in ETL/ELT, forte conoscenza di database, e competenze in Python/Java. Il candidato ideale avrà almeno 3 anni di esperienza in ingegneria dei dati e capacità di lavorare in ambiente agile.

Competenze

  • Minimo 3 anni di esperienza nel campo dell'ingegneria dei dati in un contesto agile.
  • Forte conoscenza delle tecniche di modellazione dei dati.
  • Esperienza con framework/metodologie ETL/ELT e orchestrazione.

Mansioni

  • Costruire e implementare processi ETL/ELT efficienti e scalabili.
  • Progettare e implementare il data lake per reportistica e analisi.
  • Impostare sistemi di monitoraggio della qualità dei dati.

Conoscenze

Esperienza con Python/Java
Conoscenza di database SQL/NoSQL
Abilità nel progettare pipeline CI/CD
Forte autonomia in soluzioni MLOps
Conoscenza di tecnologie big data

Strumenti

Google Cloud (Bigquery, DataFlow)
Descrizione del lavoro

Siamo alla ricerca di unData Engineerda inserire nel nostro team Data Management, responsabile dello sviluppo di un'ampia gamma di prodotti di dati, dai sistemi scalabili di ingestione/elaborazione dei dati ai progetti di data lake e machine learning.
Come parte del team Data & Analytics, i nostri data engineer lavorano in modo interfunzionale con i reparti IT, i data scientist e gli analyst per supportare gli stakeholder aziendali a guidare l'impatto attraverso un processo decisionale informato.

Responsabilità
  • Costruire e implementare processi ETL/ELT e di manipolazione dei dati altamente efficienti e scalabili utilizzando tecnologie big data e cloud
  • Progettare e implementare il data lake per la reportistica e l'analisi self-services
  • Raccogliere i requisiti dalle parti interessate, compresi i data scientist e gli analisti aziendali
  • Impostare sistemi di monitoraggio della qualità dei dati che garantiscano che i dati raccolti abbiano la qualità e le caratteristiche richieste
  • Progettare pipeline CI/CD scalabili per distribuire in produzione prodotti di dati e soluzioni di intelligenza artificiale
  • Lavorare a stretto contatto con i partner in un ambiente collaborativo per realizzare casi d'uso analitici
  • Minimo 3 anni di esperienza nel campo dell'ingegneria dei dati lavorando in un contesto agile
  • Esperienza pregressa e forte autonomia nella progettazione e implementazione di soluzioni MLOps
  • Esperienza di sviluppo con Python/Java.
  • Forte conoscenza del database SQL/NoSQL e delle tecniche di modellazione dei dati
  • Esperienza diretta con la costruzione di data platform su tecnologie Cloud
  • Esperienza con framework/metodologie ETL/ELT e orchestrazione
  • Nice to have: conoscenza della piattaforma Google Cloud, in particolare Bigquery, DataFlow, Apache Beam, Cloud Composer, Data catalog
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.