Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Randstad Digital Italia

Lazio

Ibrido

EUR 35.000 - 50.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una società di consulenza globale cerca un Data Engineer per sviluppare e mantenere pipeline di trasformazione dei dati in un ambiente ibrido a Milano. I candidati ideali hanno 2-3 anni di esperienza, competenze in Apache Spark e sviluppo in Python. Si richiede anche familiarità con AWS e database relazionali/non relazionali. Offriamo un’importante opportunità di carriera in un contesto dinamico.

Competenze

  • 2-3 anni di esperienza nel settore.
  • Buona conoscenza delle tecnologie di data engineering.
  • Capacità di diagnosticare e risolvere problemi complessi.

Mansioni

  • Sviluppare, testare e mantenere pipeline di trasformazione dei dati (ETL / ELT).
  • Implementare meccanismi di Change Data Capture (CDC).
  • Creare e gestire dataset strutturati, semi‑strutturati e non strutturati.
  • Sviluppare e ottimizzare schemi e query sul Data Warehouse.
  • Diagnosticare e risolvere problemi relativi all'elaborazione distribuita.

Conoscenze

Competenze in Apache Spark
Sviluppo in Python
Lavoro in AWS
DB relazionali (MySQL, PostgreSQL)
DB non relazionali (MongoDB, AuroraDB)
Programma di estrazione dati, ETL, Glue
Descrizione del lavoro
Data Engineer

Nice to meet you. We are Randstad Digital.

Randstad Digital

Consulting

è una società di consulenza globale nei settori Information technologies e Engineering, con oltre

25.000

esperti in tutto il mondo. Siamo un'organizzazione che mette al primo posto i talenti, e siamo focalizzati nell’abilitare i nostri clienti nei loro percorsi di trasformazione digitale e nello sviluppare importanti progetti di contenuto tecnologico.

Sei pronto per la tua prossima sfida?

Per rafforzare il nostro team IT, siamo alla ricerca di :

Responsabilità
  • Sviluppare, testare e mantenere pipeline di trasformazione dei dati (ETL / ELT);
  • Implementare meccanismi di Change Data Capture (CDC) per l'acquisizione efficiente di dati differenziali e l'aggiornamento dei sistemi target;
  • Creare e gestire dataset strutturati, semi‑strutturati e non strutturati all'interno dell'infrastruttura di data lake e data warehouse;
  • Sviluppare e ottimizzare schemi e query sul Data Warehouse analitico;
  • Diagnosticare e risolvere proattivamente problemi complessi relativi all'elaborazione distribuita, alla latenza e alla qualità dei dati.
Requisiti
  • Esperienza di 2-3 anni;
  • Competenze in Apache Spark;
  • Esperienza di sviluppo in Python;
  • Esperienza di lavoro in AWS;
  • Conoscenza di DB relazionali (MySQL e PostgreSQL etc.) e DB non relazionali (MongoDB, AuroraDB etc.);
  • Conoscenza di programma di estrazione dati, ETL, Glue.
Sede di lavoro

: Milano, modalità ibrida.

La ricerca è rivolta ai candidati ambosessi (L.903 / 77). Ti preghiamo di leggere l'informativa sulla privacy ai sensi dell'art. 13 del Regolamento (UE) 2016 / 679 sulla protezione dei dati (GDPR).

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.