Attiva gli avvisi di lavoro via e-mail!

Senior Data Engineer - Data Products

Intesa Sanpaolo

Milano

Ibrido

EUR 28.000 - 38.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una importante banca in Italia ricerca un Data Engineer per sviluppare soluzioni di Data Processing e Machine Learning su Azure. Il candidato ideale ha esperienza in progettazione di pipeline ETL/ELT e offre una solida comprensione di strumenti come Databricks e Azure Data Lake. Si richiedono competenze in Python e SQL. Flessibilità lavorativa con modalità ibrida a Milano.

Servizi

Formazione continua
Smart working

Competenze

  • 3-5 anni di esperienza in Data Science e ML.
  • Capacità di lavorare in team multidisciplinari.
  • Conoscenza di strumenti BI e Data Visualization.

Mansioni

  • Progettare pipeline ETL/ELT su Azure.
  • Implementare data processing ad alte prestazioni.
  • Collaborare con Data Scientist per la disponibilità dei dati.

Conoscenze

Analisi dei dati
Machine Learning
Python
SQL
PySpark
Data Visualization

Formazione

Laurea in Informatica o discipline affini
Laurea Magistrale o PhD in Statistica

Strumenti

Azure Data Lake
Databricks
Power BI
Descrizione del lavoro
  • Posti di lavoro per Senior data engineer data ...

All’interno della nostra funzione IT stiamo cercando una persona da inserire a supporto dell’ufficio Automation & Data Analytics.

Insieme al team di lavoro ti focalizzerai sullo studio, sullo sviluppo e il test di nuove soluzioni di automazione e di AI GEN (utilizzando tools come BPM, RPA, BI, IA, ecc) con l'obiettivo di migliorare i processi attuali in termini di efficienza riducendo i rischi operativi e le operatività manuali, migliorando così il servizio verso i nostri clienti.

Le principali attività del tuo ruolo saranno:

  • Supporto nel test di nuove soluzioni di AI GEN;
  • Analizzare e suggerire soluzioni per migliorare i processi AS-IS
  • Supporto nella predisposizione di analisi per lo sviluppo dei requisiti aziendali
  • Supportare il team per garantire le attività di application maintenance dei processi in produzione
  • Redazione di report e presentazioni in PPT.

Sei tu la persona che stiamo cercando?

Candidati all’opportunità se hai i seguenti requisiti:

  • Laurea in ingegneria, scienze statistiche o economiche
  • Ottima conoscenza del pacchetto Office
  • Ottima conoscenza della lingua inglese
  • Gradita la conoscenza di applicativi relativi al mondo AI con particolare focus su AI GEN
  • La conoscenza di applicativi BPM, RPA, BI, AI (es: Appian, UiPath, QlikSense) sarà considerata un plus
  • Capacità di analisi
  • Orientamento al risultato

Il Gruppo CNP Assurances offre dei prodotti assicurativi a tutela del credito, previdenziali e di risparmio ad un network di distributori che vogliono diversificare la propria offerta assicurativa.

Con oltre 8.000 dipendenti in tutto il mondo, il Gruppo CNP Assurances è presente in due continenti, caratterizzati da driver di crescita complementari: l’Europa e l’America Latina, con il suo mercato assicurativo in rapida espansione

Descrizione Del Lavoro

Settore: Consulenza direzionale e IT per il settore bancario

Cerchiamo un Senior Data Scientist in grado di guidare l’analisi e lo sviluppo di soluzioni avanzate di AI e Machine Learning per clienti del settore finanziario. Il candidato ideale possiede competenze nell’analisi dei dati, nella modellazione statistica e nell’utilizzo di strumenti per la rappresentazione dei dati in dashboard interattive. La risorsa deve avere esperienza progettuale, autonomia tecnica e capacità di gestire relazioni complesse con stakeholder interni ed esterni.

  • Analisi e Modellazione Dati : Svilupperai modelli di Machine Learning e AI per ottimizzare i processi e supportare le decisioni strategiche dei clienti.
  • Sviluppo Algoritmi : Implementerai algoritmi avanzati per l’elaborazione e l’interpretazione dei dati, contribuendo alla trasformazione digitale delle aziende.
  • Big Data & Advanced Analytics : Lavorerai con dataset complessi per individuare pattern e insight strategici nel settore finanziario.
  • Data Visualization : Creerai dashboard e report interattivi per rendere i dati facilmente comprensibili agli stakeholder
  • Data Science : guiderai lo sviluppo di modelli predittivi, classificatori e altre soluzioni AI per ottimizzare processi e strategie aziendali.
  • Ownership progettuale : sarai responsabile del ciclo di vita dei progetti, dalla raccolta requisiti alla messa in produzione.
  • Gestione del team : coordinerai risorse junior, fungendo da riferimento tecnico e metodologico.
  • Interfaccia con il cliente : lavorerai in autonomia con stakeholder business e IT, facilitando la comunicazione tra esigenze di business e soluzioni tecniche.
  • Innovazione continua : promuoverai l’adozione di tecnologie emergenti e approcci innovativi all’interno dei team di lavoro.
  • Formazione: Laurea Magistrale o PhD in Statistica, Matematica, Fisica, Ingegneria o discipline affini.
  • Esperienza: 3–5 anni in Data Science, AI, ML e Advanced Analytics.
  • Competenze tecniche: Ottima padronanza di Python (o R/Matlab/SPSS/SAS), SQL e framework di modellazione statistica. Conoscenza approfondita di Azure.
  • Modelli & metodologie: Esperienza solida in analisi multivariata, modelli predittivi, distribuzioni di probabilità e processi stocastici.
  • Soft Skills: Leadership tecnica, autonomia, capacità di gestione delle risorse, attitudine alla consulenza e al problem solving. Capacità di mediazione tra team tecnici e manageriali.
  • Lingue: Inglese fluente, scritto e parlato.
  • Tool: Ottima conoscenza di strumenti BI e Data Visualization (es. Power BI, Tableau, etc.)

Be | Shaping the Future, parte del gruppo Engineering, è tra i principali player in ambito Management Consulting e ICT Solutions. Forniamo servizi di Business Advisory, Information Technology e Digital Engagement, supportando primarie istituzioni finanziarie e industriali nelle loro sfide di trasformazione digitale. Con circa 2.000 dipendenti e una presenza internazionale, il Gruppo è un punto di riferimento nel settore Financial Services.

Be Management Consulting è la società del Gruppo Be | Shaping the Future specializzata in Business Advisory. Supportiamo i nostri clienti nella gestione di progetti complessi con un approccio tailor-made, combinando competenze specialistiche e capacità di orchestrare soluzioni end-to-end.

  • Flessibilità: Sede a Milano con ampia possibilità di smart working.
  • Formazione continua: Accesso a corsi interni ed esterni per lo sviluppo professionale.
  • Feedback & crescita: Valutazioni periodiche basate sul merito e contatto diretto con il senior management.
  • Percorso di carriera dinamico: Crescita rapida in un ambiente giovane e imprenditoriale.
Descrizione Del Lavoro

Hays Solutions, società del gruppo multinazionale Hays, quotata al London Stock Exchange, offre servizi di consulenza mirati all’individuazione, alla comprensione e al raggiungimento degli obiettivi concreti di un progetto di business in ambito IT, Engineering o Digital.

Siamo alla ricerca di un Data engineer da inserire nel nostro team.

Responsabilità principali:

  • Progettare e sviluppare pipeline ETL/ELT su Azure Data Factory e Databricks.
  • Implementare soluzioni di data processing ad alte prestazioni utilizzando PySpark.
  • Gestire e ottimizzare data lake e data warehouse su Azure (es. Azure Data Lake, Synapse).
  • Collaborare con Data Scientist e Business Analyst per garantire la disponibilità dei dati.
  • Monitorare e migliorare le performance delle pipeline dati.
  • Assicurare la conformità alle best practice di data governance, sicurezza e qualità dei dati.
  • Laurea in Informatica, Ingegneria o discipline affini.
  • Esperienza comprovata nello sviluppo di soluzioni dati su Azure (Data Factory, Data Lake, Synapse).
  • Ottima conoscenza di PySpark per il processamento distribuito di grandi volumi di dati.
  • Esperienza pratica con Databricks per la gestione e l’orchestrazione di pipeline dati.
  • Conoscenza di linguaggi di programmazione come Python e SQL.
  • Familiarità con metodologie DevOps e strumenti di CI/CD.
  • Capacità di lavorare in team multidisciplinari e di comunicare efficacemente con stakeholder tecnici e non tecnici.

Modalità di lavoro: Ibrido, Milano

Se sei interessato a questa opportunità, clicca su “Candidarsi ora”. Se questa opportunità non è in linea con le tue aspettative, ma sei alla ricerca di un nuovo lavoro, visita il nostro sito Internet per scoprirne di nuove.

I candidati di ambo i sessi, dopo aver visionato l'informativa obbligatoria sulla privacy sul sito sono pregati di inviare il proprio CV. Hays Solutions S.r.l. con Socio unico. Soggetta a direzione e coordinamento da parte di Hays Plc.

Descrizione Del Lavoro

Randstad Digital Consulting è una società di consulenza globale nei settori Information technologies e Engineering, con oltre 25.000 esperti in tutto il mondo. Siamo un'organizzazione che mette al primo posto i talenti, e siamo focalizzati sull’abilitare i nostri clienti nei loro percorsi di trasformazione digitale e nello sviluppare importanti progetti di contenuto tecnologico.

Sei pronto per la tua prossima sfida?

Per rafforzare il nostro team IT, siamo alla ricerca di:

Data Engineer

Responsabilità:

  • Sviluppare, testare e mantenere pipeline di trasformazione dei dati (ETL/ELT);
  • Implementare meccanismi di Change Data Capture (CDC) per l'acquisizione efficiente di dati differenziali e l'aggiornamento dei sistemi target;
  • Creare e gestire dataset strutturati, semi-strutturati e non strutturati all'interno dell'infrastruttura di data lake e data warehouse;
  • Sviluppare e ottimizzare schemi e query sul Data Warehouse analitico;
  • Diagnosticare e risolvere proattivamente problemi complessi relativi all'elaborazione distribuita, alla latenza e alla qualità dei dati.
  • Esperienza di 2-3 anni;
  • Competenze in Apache Spark;
  • Esperienza di sviluppo in Python;
  • Esperienza di lavoro in AWS;
  • Conoscenza di DB relazionali (MySQL e PostgreSQL etc.) e DB non relazionali (MongoDB, AuroraDB etc.);
  • Conoscenza di programma di estrazione dati, ETL, Glue.

Sede di lavoro: Milano, modalità ibrida.

La ricerca è rivolta ai candidati ambosessi (L.903/77). Ti preghiamo di leggere l'informativa sulla privacy ai sensi dell'art. 13 del Regolamento (UE) 2016/679 sulla protezione dei dati (GDPR).

Descrizione Del Lavoro

Autoguidovie è alla ricerca di un/una Data Engineer con 2-3 anni di esperienza che possa supportare l'azienda nella realizzazione della nuova Data Platform. Il/la candidato/a ideale lavorerà a diretto riporto del Chief Digital, Innovation & InformationOfficer, e supporterà il Data & AI Team nella creazione di uno degli asset strategici aziendali più importanti previsti dal piano Industriale.

La/Il candidata/o ideale parla correntemente italiano, ed ha già avuto modo di contribuire attivamente alla creazione di Data Platform e Data Products su Microsoft Azure e Databricks.

Il ruolo richiede forte volontà di apprendimento, pragmatismo, senso di responsabilità e capacità di comprendere esigenze degli utilizzatori dei Data Product e dei servizi che verranno costruiti sulla Data Platform.

Responsabilità:

  • Collaborare con analisti di dati e stakeholder aziendali per comprendere i requisiti e tradurli in soluzioni tecniche efficaci.
  • Contribuire alla progettazione, sviluppo e implementazione di pipeline di dati e di job utilizzando i servizi Azure (Azure Databricks, Azure Data Lake, Azure SQL Data Warehouse, ecc.).
  • Supportare i Product Manager e gli altri membri del Data & AI Team durante l’intero ciclo di vita dei Data Product,
  • Proporre proattivamente scelte che creino valore per clienti di Autoguidovie, le sue persone, i suoi asset ed auspicabilmente l’intero Gruppo.
  • Essere affamato di apprendimento e di sperimentazione, con concretezza, senza esimersi da suggerire opportunità e prioritizzazioni.
  • Partecipare all’implementazione di best practice di Data + AI Quality and Governance.
  • Fornire supporto tecnico e formazione agli utenti finali.
  • Preferiamo laurea in Informatica, Ingegneria Informatica o campo correlato.
  • Esperienza comprovata di 2-4 anni nella progettazione e implementazione di soluzioni dati su piattaforme cloud, preferibilmente Azure.
  • Conoscenza approfondita dei servizi Azure Data (Data Lake, SQL Data Warehouse, Databricks, Event Hub, ecc.)
  • Avere sviluppato solide basi di impiego pratico di SQL, Python, Pyspark, e altri linguaggi di programmazione correlati, all’interno di progetti consistenti
  • Familiarità con framework DevOps / MLOps o Stream Analytics o Kafka gradita
  • Capacità di lavorare in modo indipendente e in team, con una forte attenzione ai dettagli, ottime capacità di problem solving, rispetto delle scadenze, capacità di comunicare efficacemente con team tecnici e non.
  • Ingresso in un’azienda privata che vuole rivoluzionare il trasporto pubblico locale, migliorare la qualità del servizio per i cittadini, e che crede fortemente nella stella polare della sostenibilità.
  • Entrare a far parte di un Team di alto livello in espansione, nato da meno di un anno, all’interno del quale si cresce e ci si diverte nel creare progetti come Sentinel, Panacea, Clarity, Midas, Camy.
  • Forte supporto da parte del CdA e dagli end-user delle soluzioni che sta sviluppando all'interno della Data, Digital ed AI Platform.
  • Attenzione alla crescita professionale ed allo spazio per l’apprendimento continuo.
  • Pacchetto retributivo competitivo e benefit aziendali.

Il budget previsto per questo ruolo in Italia, con sede di lavoro in presenza a Milano, è di circa 28,000 – 38,000 EURO annui, a seconda dell’esperienza e delle qualifiche del candidato.

Descrizione Del Lavoro

REVO è una compagnia di assicurazione con circa 250 dipendenti, quotata sul mercato Euronext STAR Milan e attiva nei rami danni con particolare riguardo ai rischi speciali (specialty lines) e ai rischi parametrici, con un focus prevalente sul comparto delle PMI. In REVO tecnologia, esperienza e capacità di vedere possibilità dove gli altri vedono solo limiti sono le chiavi per portare l’assicurazione tradizionale nel futuro.

Come Junior DataOps Engineer verrai inserito all’interno del team di Data Engineering & Governance, in stretta collaborazione con il team di Data Science/AI & Analytics e con tutte le aree di business di REVO. Siamo un team competente e ambizioso, ricco di energia e voglia di innovare, dedicato a progettare e sviluppare la Data Platform proprietaria di REVO: un data lake ibrido, fully on-cloud, che viene utilizzato quotidianamente per supportare e automatizzare i processi operativi chiave, mettendo a disposizione della Compagnia dati di qualità e dotati di un chiaro contesto di business lungo tutto il loro ciclo di vita.

Aree di responsabilità

  • Monitorare e garantire l’efficienza dei processi in esecuzione su Data Platform (Kubernetes + Databricks).
  • Partecipare alla progettazione del Data Model e della Data Platform.
  • Supportare gli utenti di Business nell’uso dei dati e nello sviluppo dei loro scripts.

Esperienze lavorative

Siamo alla ricerca di brillanti laureati discipline STEM con esperienza nell’uso di basi dati relazionali e no-SQL e nella progettazione, sviluppo ed esercizio di software back-end. Il candidato ideale possiede una discreta esperienza maturata nella creazione e sviluppo di pipeline complesse, preferibilmente on-cloud, ed è in grado di operare con elevata autonomia rapportandosi in maniera collaborativa sia all’interno del team di sviluppo, sia con i team di Artificial Intelligence, Data Science e Analytics.

  • Conoscenza di base del linguaggio SQL.
  • Conoscenza dei fondamenti di database relazionali: utilizzo, progettazione e sviluppo delle strutture dati (ad es. PostgreSQL, MS SQL, Oracle).
  • Conoscenza del linguaggio Python e delle principali librerie per ETL.
  • Conoscenza del sistema di versionamento Git.
  • Conoscenza di base di Apache Spark e dell’API PySpark.
  • Esperienza di base nello sviluppo software in modalità DataOps o DevOps e nello sviluppo di pipelines CI/CD.
  • Conoscenza di base di almeno un ambiente Cloud (ad es. AWS, GCP, Azure).

Preferenziali:

  • Conoscenza della piattaforma Databricks.
  • Esperienza nell’utilizzo di AWS Cloud e dei principali servizi annessi per lo sviluppo della pipeline dati (e.g. S3, Glue, Lambda, ECR, Athena, EC2).
  • Conoscenza di ambienti basati su tecnologia Docker.
  • Conoscenza di un linguaggio di sviluppo embedded su RDBMS (e.g. PL/SQL, PL/pgSQL).
  • esperienza nell’utilizzo di un sistema di orchestrazione di pipeline (ad es. Airflow, Prefect Cloud).
  • utilizzo di agenti AI per l’accelerazione dello sviluppo.

Caratteristiche personali

  • Spiccato spirito analitico.
  • Forte senso di responsabilità e capacità di organizzazione.
  • Approccio dinamico con elevata proattività, curiosità e apertura a nuovi approcci, tecnologie e strumenti.
  • Forte orientamento al risultato.
  • Ottime capacità comunicative e relazionali.
  • Ottima capacità di lavorare efficacemente in team.

Il presente annuncio si rivolge a candidati di entrambi i sessi ai sensi della legge (L.903/77 e D.Lgs n. 98/2006, art 27). L'interessato è invitato a inviare la propria candidatura rilasciando specifico consenso al trattamento dei dati personali, ai sensi della nuova Normativa Europea sulla Privacy, conforme agli artt. 13 e 14 del Reg. EU 679/2016 al seguente indirizzo (Aut. Min. del 15/04/2014 Prot. N: 39/4903).

Descrizione Del Lavoro

AGAP2 è un gruppo europeo di consulenza ingegneristica e operativa facente parte del Gruppo MoOngy.

Presente in 14 paesi europei con oltre 10.000 dipendenti, abbiamo aperto, da quattro anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano gli stessi valori della nostra società: AMBIZIONE, SORRISO, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà in continua evoluzione, nella quale le relazioni umane sono sempre al primo posto.

Descrizione del ruolo:

Per un'importante realtà, leader nel settore IT, siamo alla ricerca di un/una Data Engineer.

La risorsa sarà coinvolta nella progettazione, sviluppo e ottimizzazione di pipeline di data ingestion, trasformazione e modellazione, assicurando qualità, efficienza e scalabilità delle soluzioni.

Responsabilità principali:

  • Implementazione di data pipeline su Databricks e Azure
  • Trasformazione e modellazione dati con PySpark
  • Collaborazione con i team di progetto per comprendere i requisiti di business e tradurli in soluzioni dati
  • Manutenzione e ottimizzazione di processi ETL/ELT in ambienti cloud
  • Monitoraggio della qualità e consistenza dei dati
  • Supporto a iniziative di Data Science e AI, garantendo un’infrastruttura dati robusta
  • Esperienza comprovata in Databricks
  • Ottima padronanza di PySpark per la gestione e manipolazione dei dati
  • Conoscenza approfondita della piattaforma Azure (Data Lake, Data Factory, Azure Synapse, ecc.)
  • Opportunità di lavorare su progetti innovativi in un settore in continua evoluzione;
  • Ambiente di lavoro stimolante e dinamico, formazione continua;
  • Retribuzione commisurata all’esperienza e pacchetto benefit aziendali.

AGAP2 è un equal opportunities employer: crediamo che tutte le forme di diversità siano fonte di arricchimento reciproco. Ci impegniamo a garantire un ambiente di lavoro inclusivo, nel quale ogni singola risorsa possa apportare un valore unico alla nostra realtà. Pertanto, accogliamo candidature senza distinzione di età, genere, nazionalità, disabilità, orientamento sessuale, religione o stato civile.

Inoltre, teniamo fede ai nostri impegni prestando attenzione alle risorse appartenenti alle categorie protette ai sensi degli articoli 1 e 18 della Legge 68/99.

Il trattamento dei dati personali

  • I dati personali saranno trattati in conformità alle disposizioni contenute nel regolamento UE 2016/679.
Descrizione Del Lavoro

Per primaria realtà Data Driven Transformation & Consulting Company, Grafton è alla ricerca di un Data Engineer.

Sedi applicabili: Milano/Bologna

Modalità di lavoro: 2 giorni di presenza a settimana

Core Business: servizi di Advisory quali la realizzazione di Data Strategy, attività di implementazione con il design e la realizzazione di soluzioni di Business Analytics, Big Data Platform & Artificial Intelligence.

Il candidato/a ideale ha esperienza nell'utilizzo della piattaforma Snowflake come Data Warehouse/Data Platform. Ha implementato almeno uno scenario cliente di media-alta complessità utilizzando Snowflake in contesti produttivi (es: migrazione da contesto on-prem, implementazione Data Mesh/Data Product, ecc.), guidando le scelte tecniche end-to-end.

La figura dovrà rappresentare un riferimento tecnico per il cliente e per il team, consigliando attivamente le best practice, guidando nelle scelte architetturali critiche e supportando risorse junior nei task operati. Dovrà inoltre supportare il PM nella valutazione dell’effort in termini di tempi, costi, rischi e fattibilità.

  • Almeno 3 anni di esperienza nella gestione e modellazione di dati in ambito consulenziale.
  • Snowflake: Conoscenza approfondita come Data Warehouse/Data Platform.
  • Competenza approfondita in database SQL e tecnologie di data warehouse.
  • Conoscenza dell'architettura a tre livelli.
  • Esperienza nella progettazione di pipeline di ingestione dati, utilizzando External Volumes, diversi file format (CSV, JSON, Parquet, Apache Iceberg), External Locations, COPY INTO, Snowpipe e, se applicabile, il framework OpenFlow.
  • Progettazione e implementazione di Ruoli, RBAC; configurazione di Resource Monitors, Network Policies, Integrazione SSO/OAuth; gestione della sicurezza dei dati con Dynamic Data Masking, Row Access Policies, Tagging e Object dependencies; e implementazione di Secure Data Sharing tra account/organizzazioni.
  • Progettare e implementare l'integrazione di Snowflake con strumenti esterni per ETL/ELT e Orchestrazione (es. Informatica Cloud Data Integration, Airflow, Fivetran), BI e Analytics (es. Power BI, Tableau).
  • Massima flessibilità operativa (previsti 3 giorni di smart working a settimana).

Grafton è il brand globale che si occupa di Professional Recruitment di Gi Group Holding, la prima multinazionale italiana del lavoro e una tra le principali realtà che offrono servizi e consulenza HR a livello globale.

L’offerta si intende rivolta a candidati ambosessi, nel rispetto del D.Lgs. n. 198/2006 e ss.mm.ii. e dei Decreti Legislativi n. 215 e n. 216 del 2003 sulle parità di trattamento.

I candidati sono invitati a leggere l’informativa privacy ai sensi degli artt. 13 e 14 del Reg. EU 679/2016 al seguente indirizzo (Aut. Min. del 15/04/2014 Prot. N: 39/4903).

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.