Attiva gli avvisi di lavoro via e-mail!

Senior Data Engineer

agap2 Italia

Torino

Remoto

EUR 35.000 - 50.000

Tempo pieno

Oggi
Candidati tra i primi

Descrizione del lavoro

Una società di consulenza ingegneristica cerca un Data Engineer per unirsi a un team internazionale. Il candidato si occuperà di progettare e ottimizzare pipeline dati su AWS utilizzando strumenti come Databricks e PySpark. Lavoro in team Agile, completamente remoto, con focus sulla qualità dei dati e la governance. È richiesto un forte background in ETL/ELT e competenze in AWS.

Competenze

  • Esperienza nella progettazione e sviluppo di pipeline ETL/ELT scalabili.
  • Competenza nell'implementazione di soluzioni serverless su AWS.
  • Buona conoscenza di Databricks e PySpark.

Mansioni

  • Progettare, sviluppare e ottimizzare pipeline ETL / ELT in ambienti cloud.
  • Implementare soluzioni serverless su AWS.
  • Collaborare in team Agile, remoto e multilingue.

Conoscenze

ETL / ELT design
AWS
Databricks
PySpark
CI/CD
Terraform
Agile teamwork
Descrizione del lavoro
CHI SIAMO

AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa facente parte del Gruppo MoOngy.

Presente in 14 paesi europei con oltre 10.000 dipendenti, abbiamo aperto, da quattro anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano gli stessi valori della nostra società : AMBIZIONE, SORRISO, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà in continua evoluzione, nella quale le relazioni umane sono sempre al primo posto.

Stiamo cercando una figura come Data Engineer. entrerai a far parte di un team internazionale dedicato alla creazione, ottimizzazione e manutenzione di pipeline dati su larga scala. Lavorerai in ambiente cloud (AWS) con Databricks, PySpark e strumenti di orchestrazione come Airflow , contribuendo alla trasformazione di ecosistemi dati complessi.

Responsabilità principali
  • Progettare, sviluppare e ottimizzare pipeline ETL / ELT scalabili in ambienti cloud.
  • Implementare soluzioni serverless su AWS (Lambda, ECS, S3, EFS).
  • Gestire e ottimizzare tabelle Delta e workflow Databricks.
  • Automatizzare i processi di deployment con CI / CD e Terraform .
  • Collaborare in team Agile , completamente remoto e multilingue.
  • Supportare le strategie di data governance e la qualità dei dati.
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.