Attiva gli avvisi di lavoro via e-mail!

Senior Data Engineer

Agap2 Italia

Caserta

Remoto

EUR 45.000 - 65.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una società di consulenza ingegneristica cerca un Senior Data Engineer con esperienza nel settore bancario. Sarai responsabile della progettazione e sviluppo di pipeline dati scalabili, collaborando con team di Data Analyst e Data Scientist. Cerchiamo candidati proattivi con ottime capacità comunicative e almeno 4 anni di esperienza.

Competenze

  • 4-5 anni di esperienza nel settore banking.
  • Esperienza con architetture data lake/data warehouse in ambito enterprise.
  • Capacità di analisi e problem solving.

Mansioni

  • Progettazione e sviluppo di pipeline ETL / ELT.
  • Implementazione di workflow con Airflow.
  • Collaborare con stakeholders per l'integrazione delle fonti dati.

Conoscenze

Databricks
DBT
Airflow
PySpark
SQL
Descrizione del lavoro

CHI SIAMO

AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa facente parte del Gruppo MoOngy.

Presente in 14 paesi europei con oltre 10.000 dipendenti, abbiamo aperto, da quattro anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano gli stessi valori della nostra società : AMBIZIONE, SORRISO, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà in continua evoluzione, nella quale le relazioni umane sono sempre al primo posto.

Senior Data Engineer – Settore Banking

Località : Remoto

Esperienza richiesta : 4–5 anni

Settore : Banking / Finanziario

Descrizione del ruolo

Siamo alla ricerca di un Senior Data Engineer con solida esperienza nel settore banking , che sia in grado di progettare, sviluppare e ottimizzare pipeline dati scalabili e affidabili. La risorsa lavorerà a stretto contatto con team di Data Analyst, Data Scientist e architetti IT, contribuendo alla definizione delle best practice e alla continua evoluzione della data platform aziendale.

Responsabilità principali
  • Progettazione e sviluppo di pipeline ETL / ELT in ambienti cloud e Big Data.
  • Implementazione di workflow di orchestrazione tramite Airflow.
  • Modellazione, trasformazione e validazione dei dati mediante DBT.
  • Sviluppo di soluzioni data-driven con Databricks , utilizzando PySpark e SQL.
  • Garantire qualità, sicurezza e governance dei dati secondo gli standard di settore.
  • Collaborare con stakeholder tecnici e di business per l'integrazione e l’ottimizzazione delle fonti dati.
Competenze tecniche richieste
  • Databricks (obbligatorio)
  • DBT (obbligatorio)
  • Airflow
  • Linguaggi di programmazione PySpark e SQL
  • Esperienza con architetture data lake / data warehouse in ambito enterprise
Competenze trasversali
  • Capacità di analisi e problem solving
  • Ottime doti comunicative e predisposizione al lavoro in team
  • Proattività e orientamento al risultato
Nice to have
  • Conoscenza del dominio finanziario e dei principali processi bancari
  • Familiarità con ambienti cloud (Azure, AWS o GCP)

Non esitare, candidati!

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.