Attiva gli avvisi di lavoro via e-mail!

Senior Data Engineer

Agap2 Italia

Ravenna

Remoto

EUR 45.000 - 65.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una società di consulenza ingegneristica cerca un Senior Data Engineer con esperienza nel settore banking. La figura dovrà progettare e ottimizzare pipeline dati scalabili lavorando a stretto contatto con team di analisi e architettura IT. Sono richiesti almeno 4-5 anni di esperienza e competenze tecniche in Databricks e DBT. Lavoro in modalità remota.

Competenze

  • 4–5 anni di esperienza nel settore banking.
  • Esperienza con architetture data lake e data warehouse.
  • Capacità di analisi e problem solving.

Mansioni

  • Progettazione e sviluppo di pipeline ETL/ELT in ambienti cloud.
  • Implementazione di workflow di orchestrazione tramite Airflow.
  • Collaborare con stakeholder per l'integrazione delle fonti dati.

Strumenti

Databricks
DBT
Airflow
PySpark
SQL
Descrizione del lavoro
CHI SIAMO

AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa facente parte del Gruppo MoOngy.

Presente in 14 paesi europei con oltre 10.000 dipendenti, abbiamo aperto, da quattro anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano gli stessi valori della nostra società : AMBIZIONE, SORRISO, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà in continua evoluzione, nella quale le relazioni umane sono sempre al primo posto.

Senior Data Engineer – Settore Banking

Località: Remoto

Esperienza richiesta : 4–5 anni

Settore : Banking / Finanziario

Descrizione del ruolo

Siamo alla ricerca di un Senior Data Engineer con solida esperienza nel settore banking, che sia in grado di progettare, sviluppare e ottimizzare pipeline dati scalabili e affidabili. La risorsa lavorerà a stretto contatto con team di Data Analyst, Data Scientist e architetti IT, contribuendo alla definizione delle best practice e alla continua evoluzione della data platform aziendale.

Responsabilità principali
  • Progettazione e sviluppo di pipeline ETL / ELT in ambienti cloud e Big Data.
  • Implementazione di workflow di orchestrazione tramite Airflow.
  • Modellazione, trasformazione e validazione dei dati mediante DBT.
  • Sviluppo di soluzioni data-driven con Databricks, utilizzando PySpark e SQL.
  • Garantire qualità, sicurezza e governance dei dati secondo gli standard di settore.
  • Collaborare con stakeholder tecnici e di business per l'integrazione e l'ottimizzazione delle fonti dati.
Competenze tecniche richieste
  • Databricks (obbligatorio)
  • DBT (obbligatorio)
  • Airflow
  • Linguaggi di programmazione PySpark e SQL
  • Esperienza con architetture data lake / data warehouse in ambito enterprise
Competenze trasversali
  • Capacità di analisi e problem solving
  • Ottime doti comunicative e predisposizione al lavoro in team
  • Proattività e orientamento al risultato
Nice to have
  • Conoscenza del dominio finanziario e dei principali processi bancari
  • Familiarità con ambienti cloud (Azure, AWS o GCP)

Non esitare, candidati!

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.