Attiva gli avvisi di lavoro via e-mail!

Senior Data Engineer

agap2 Italia

Como

Remoto

EUR 40.000 - 70.000

Tempo pieno

3 giorni fa
Candidati tra i primi

Aumenta le tue possibilità di ottenere un colloquio

Crea un curriculum personalizzato per un lavoro specifico per avere più probabilità di riuscita.

Descrizione del lavoro

AGAP2 Italia cerca un professionista esperto in Azure Cloud Data Platform per la progettazione e lo sviluppo di soluzioni dati scalabili. Il candidato collaborerà in team di progetto dedicati per ottimizzare e gestire pipeline dati su architetture cloud-native, lavorando in un ambiente remoto in continua evoluzione.

Competenze

  • Esperienza comprovata in Azure Data Services (Data Factory, Data Lake, Synapse Analytics).
  • Ottima padronanza di Databricks e sviluppo con PySpark.
  • Conoscenza avanzata di SQL per analisi e trasformazioni dati.

Mansioni

  • Sviluppare e manutenere pipeline di dati (ETL / ELT) su Azure Data Factory e Databricks.
  • Modellare e ottimizzare dataset per analisi e reporting.
  • Collaborare con Data Scientist e Business Analyst per fornire dati affidabili.

Conoscenze

Azure Data Services
Databricks
PySpark
SQL
Data Warehousing

Strumenti

Git

Descrizione del lavoro

AGAP2 è un gruppo europeo di consulenza ingegneristica operativa facente parte del Gruppo MoOngy.

Presente in 11 paesi europei con oltre 6.000 dipendenti abbiamo aperto, da circa tre anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano gli stessi valori della nostra società : AMBIZIONE, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà in continua evoluzione, nella quale le relazioni umane sono sempre al primo posto.

Cerchiamo un professionista con esperienza su Azure Cloud Data Platform, con competenze avanzate in Databricks, SQL, PySpark, per progettazione e sviluppo di soluzioni dati scalabili. La risorsa sarà inserita in team di progetto dedicati alla costruzione, ottimizzazione e gestione di pipeline dati su architetture cloud-native.

Responsabilità

  • Sviluppare e manutenere pipeline di dati (ETL / ELT) su Azure Data Factory e Databricks
  • Modellare e ottimizzare dataset per analisi e reporting (Data Lake, Delta Lake)
  • Scrivere codice PySpark per la trasformazione di grandi volumi di dati
  • Collaborare con Data Scientist e Business Analyst per fornire dati affidabili e strutturati
  • Monitorare performance e garantire la qualità dei dati
  • Gestire sicurezza, versionamento e deployment in ambienti DevOps Azure

Competenze richieste

  • Esperienza comprovata in Azure Data Services (Data Factory, Data Lake, Synapse Analytics)
  • Ottima padronanza di Databricks e sviluppo con PySpark
  • Conoscenza avanzata di SQL per analisi e trasformazioni dati
  • Conoscenza dei concetti di data warehousing, modellazione dati (star / snowflake schema)
  • Esperienza con strumenti di versionamento (Git) e metodologie CI / CD

Modalità di lavoro : remoto

AGAP2 è un equal opportunities employer : crediamo che tutte le forme di diversità siano fonte di arricchimento reciproco. Ci impegniamo a garantire un ambiente di lavoro inclusivo, nel quale ogni singola risorsa possa apportare un valore unico alla nostra realtà. Pertanto, accogliamo candidature senza distinzione di età, genere, nazionalità, disabilità, orientamento sessuale, religione o stato civile.

Inoltre, teniamo fede ai nostri impegni prestando attenzione alle risorse appartenenti alle categorie protette ai sensi degli articoli 1 e 18 della Legge 68 / 99.

  • I dati personali saranno trattati in conformità alle disposizioni contenute nel regolamento UE 2016 / 679
Creare un avviso di lavoro per questa ricerca
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.