Attiva gli avvisi di lavoro via e-mail!

Senior Data Engineer

Agap2 Italia

Alba Adriatica

Remoto

EUR 50.000 - 70.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda di consulenza ingegneristica cerca un Senior Data Engineer con esperienza nel settore banking. Il candidato ideale progetterà e ottimizzerà pipeline dati scalabili e lavorerà a stretto contatto con team di Data Analyst e Data Scientist. È fondamentale avere competenze in Databricks e DBT. Lavoro in remoto disponibile.

Competenze

  • 4-5 anni di esperienza nel settore banking.
  • Esperienza nella progettazione e sviluppo di pipeline dati.
  • Capacità di lavorare con team multidisciplinari.

Mansioni

  • Progettazione e sviluppo di pipeline ETL/ELT.
  • Implementazione di workflow di orchestrazione tramite Airflow.
  • Collaborare con stakeholder per ottimizzazione delle fonti dati.

Conoscenze

Databricks
DBT
Airflow
PySpark
SQL
Descrizione del lavoro

CHI SIAMO

AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa facente parte del Gruppo MoOngy.

Presente in 14 paesi europei con oltre 10.000 dipendenti, abbiamo aperto, da quattro anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano gli stessi valori della nostra società : AMBIZIONE, SORRISO, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà in continua evoluzione, nella quale le relazioni umane sono sempre al primo posto.

Senior Data Engineer – Settore Banking

Località : Remoto

Esperienza richiesta : 4–5 anni

Settore : Banking / Finanziario

Descrizione del ruolo

Siamo alla ricerca di un Senior Data Engineer con solida esperienza nel settore banking , che sia in grado di progettare, sviluppare e ottimizzare pipeline dati scalabili e affidabili. La risorsa lavorerà a stretto contatto con team di Data Analyst, Data Scientist e architetti IT, contribuendo alla definizione delle best practice e alla continua evoluzione della data platform aziendale.

Responsabilità principali
  • Progettazione e sviluppo di pipeline ETL / ELT in ambienti cloud e Big Data.
  • Implementazione di workflow di orchestrazione tramite Airflow.
  • Modellazione, trasformazione e validazione dei dati mediante DBT.
  • Sviluppo di soluzioni data-driven con Databricks , utilizzando PySpark e SQL.
  • Garantire qualità, sicurezza e governance dei dati secondo gli standard di settore.
  • Collaborare con stakeholder tecnici e di business per l'integrazione e l’ottimizzazione delle fonti dati.
Competenze tecniche richieste
  • Databricks (obbligatorio)
  • DBT (obbligatorio)
  • Airflow
  • Linguaggi di programmazione PySpark e SQL
  • Esperienza con architetture data lake / data warehouse in ambito enterprise
Competenze trasversali
  • Capacità di analisi e problem solving
  • Ottime doti comunicative e predisposizione al lavoro in team
  • Proattività e orientamento al risultato
Nice to have
  • Conoscenza del dominio finanziario e dei principali processi bancari
  • Familiarità con ambienti cloud (Azure, AWS o GCP)

Non esitare, candidati!

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.