Attiva gli avvisi di lavoro via e-mail!

Senior Data Engineer

Agap2 Italia

Lazio

Remoto

EUR 45.000 - 65.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una società di consulenza ingegneristica è alla ricerca di un Senior Data Engineer esperto nel settore banking. Il candidato ideale avrà una solida esperienza nella progettazione e sviluppo di pipeline dati scalabili. Sono richieste competenze in Databricks e DBT, insieme a capacità di lavorare in team. Questa posizione è completamente remota.

Competenze

  • 4-5 anni di esperienza nel settore banking.
  • Competenza nella progettazione e sviluppo di pipeline dati.

Mansioni

  • Progettare e sviluppare pipeline ETL/ELT in ambienti cloud.
  • Implementare workflow di orchestrazione tramite Airflow.
  • Collaborare con stakeholder per integrazione delle fonti dati.

Conoscenze

Databricks
DBT
Airflow
Py Spark
SQL

Strumenti

Ambienti cloud (Azure, AWS o GCP)
Descrizione del lavoro

CHI SIAMOAGAP2 è un gruppo europeo di consulenza ingegneristica e operativa facente parte del Gruppo Mo Ongy.

Presente in 14 paesi europei con oltre 10.000 dipendenti, abbiamo aperto, da quattro anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano gli stessi valori della nostra società : AMBIZIONE, SORRISO, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà in continua evoluzione, nella quale le relazioni umane sono sempre al primo posto.

Senior Data Engineer – Settore Banking Località : Remoto

Esperienza richiesta : 4–5 anni

Descrizione del ruolo

Siamo alla ricerca di un Senior Data Engineer con solida esperienza nel settore banking, che sia in grado di progettare, sviluppare e ottimizzare pipeline dati scalabili e affidabili.

La risorsa lavorerà a stretto contatto con team di Data Analyst, Data Scientist e architetti IT, contribuendo alla definizione delle best practice e alla continua evoluzione della data platform aziendale.

Responsabilità principali
  • Progettazione e sviluppo di pipeline ETL / ELT in ambienti cloud e Big Data.
  • Implementazione di workflow di orchestrazione tramite Airflow.
  • Modellazione, trasformazione e validazione dei dati mediante DBT.
  • Sviluppo di soluzioni data-driven con Databricks, utilizzando Py Spark e SQL.
  • Garantire qualità, sicurezza e governance dei dati secondo gli standard di settore.
  • Collaborare con stakeholder tecnici e di business per l’integrazione e l’ottimizzazione delle fonti dati.
Competenze tecniche richieste
  • Databricks (obbligatorio)
  • DBT (obbligatorio)
  • Airflow
  • Linguaggi di programmazione Py Spark e Spark
  • SQL
  • Esperienza con architetture data lake / data warehouse in ambito enterprise
Competenze trasversali
  • Capacità di analisi e problem solving
  • Ottime doti comunicative e predisposizione al lavoro in team
  • Proattività e orientamento al risultato
Nice to have
  • Conoscenza del dominio finanziario e dei principali processi bancari
  • Familiarità con ambienti cloud (Azure, AWS o GCP)

Non esitare, candidati!

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.