Attiva gli avvisi di lavoro via e-mail!

Senior Data Engineer

agap2 Italia

Pavia

Remoto

EUR 40.000 - 60.000

Tempo pieno

Ieri
Candidati tra i primi

Aumenta le tue possibilità di ottenere un colloquio

Crea un curriculum personalizzato per un lavoro specifico per avere più probabilità di riuscita.

Descrizione del lavoro

AGAP2, un gruppo europeo di consulenza ingegneristica, cerca un Azure Cloud Data Platform Engineer per progettare e sviluppare soluzioni dati scalabili. Il candidato ideale avrà esperienza in Databricks, SQL e PySpark, e lavorerà in un ambiente remoto, contribuendo a progetti innovativi.

Competenze

  • Esperienza su Azure Data Services e Data Factory.
  • Ottima padronanza di Databricks e PySpark.
  • Conoscenza avanzata di SQL per analisi e trasformazioni.

Mansioni

  • Sviluppare e manutenere pipeline di dati su Azure Data Factory.
  • Modellare e ottimizzare dataset per analisi e reporting.
  • Scrivere codice PySpark per la trasformazione di grandi volumi di dati.

Conoscenze

Databricks
SQL
PySpark
Data warehousing
Git

Descrizione del lavoro

AGAP2 è un gruppo europeo di consulenza ingegneristica operativa facente parte del Gruppo MoOngy. Presente in 11 paesi europei con oltre 6.000 dipendenti, abbiamo aperto, da circa tre anni, la prima sede italiana a Milano. Vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano i nostri valori: AMBIZIONE, DINAMISMO, VOGLIA DI METTERSI IN GIOCO. Operiamo in una realtà in continua evoluzione, dove le relazioni umane sono sempre al primo posto.

Azure Cloud Data Platform Engineer

Cerchiamo un professionista con esperienza su Azure Cloud Data Platform, con competenze avanzate in Databricks, SQL, PySpark, per progettazione e sviluppo di soluzioni dati scalabili. La risorsa sarà inserita in team di progetto dedicati alla costruzione, ottimizzazione e gestione di pipeline dati su architetture cloud-native.

Responsabilità
  1. Sviluppare e manutenere pipeline di dati (ETL / ELT) su Azure Data Factory e Databricks
  2. Modellare e ottimizzare dataset per analisi e reporting (Data Lake, Delta Lake)
  3. Scrivere codice PySpark per la trasformazione di grandi volumi di dati
  4. Collaborare con Data Scientist e Business Analyst per fornire dati affidabili e strutturati
  5. Monitorare performance e garantire la qualità dei dati
  6. Gestire sicurezza, versionamento e deployment in ambienti DevOps Azure
Competenze richieste
  • Esperienza comprovata in Azure Data Services (Data Factory, Data Lake, Synapse Analytics)
  • Ottima padronanza di Databricks e sviluppo con PySpark
  • Conoscenza avanzata di SQL per analisi e trasformazioni dati
  • Conoscenza dei concetti di data warehousing e modellazione dati (star / snowflake schema)
  • Esperienza con strumenti di versionamento (Git) e metodologie CI / CD

Modalità di lavoro: remoto

Perché unirti a noi

AGAP2 è un datore di lavoro che promuove le pari opportunità: crediamo che tutte le forme di diversità siano fonte di arricchimento reciproco. Ci impegniamo a garantire un ambiente di lavoro inclusivo, in cui ogni risorsa possa apportare un valore unico. Accogliamo candidature senza distinzione di età, genere, nazionalità, disabilità, orientamento sessuale, religione o stato civile. Inoltre, prestiamo attenzione alle risorse appartenenti alle categorie protette ai sensi della Legge 68/99. I dati personali saranno trattati in conformità al regolamento UE 2016/679.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.