Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer - Azure E Apache Spark

Software Inside Srl

Lazio

In loco

EUR 35.000 - 50.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'importante software house italiana è alla ricerca di un Data Engineer con almeno 2 anni di esperienza. La figura selezionata gestirà flussi di dati utilizzando Azure e Apache Spark, occupandosi di pipeline ETL, analisi dati finanziari e creazione di report utilizzando strumenti come Power BI. Un'opportunità per crescere in un team dinamico e innovativo.

Competenze

  • Esperienza di almeno 2 anni nella mansione.
  • Competenze nella progettazione e ottimizzazione di pipeline ETL.
  • Capacità di integrare dati tra sistemi cloud e on-premises.

Mansioni

  • Sviluppo e gestione di pipeline ETL.
  • Integrazione dei dati tra sistemi.
  • Analisi di dati finanziari.
  • Creazione di report e visualizzazioni.
  • Ottimizzazione dei processi di reporting.
  • Collaborazione con il team IT e business.

Conoscenze

Competenze in Azure
Apache Spark
ETL pipeline
Analisi dei dati finanziari
Power BI

Strumenti

Azure Databricks
Excel
Descrizione del lavoro
Descrizione azienda

Software Inside S.r.l. è una Software House italiana che opera dal 2016 come società di consulenza nei settori Bancario & Finanza, Cyber Security, Telecomunicazioni, Energy & Utilities.

Ci collochiamo nel settore dell'Information Technology proponendoci come obiettivo quello di fornire una vasta gamma di prodotti, servizi e soluzioni nelle aree più strategiche per l'impresa, come : Infrastrutture IT, Content Management, ERP, Business Intelligence, CRM, Web Applications.

Posizione

Per importante cliente siamo alla ricerca di un Data Engineer con competenze in Azure e Apache Spark

Esperienza di almeno 2 anni nella mansione

La risorsa sarà inserita all'interno di un team dinamico e avrà il compito di gestire e ottimizzare il flusso di dati attraverso l'utilizzo di Azure Databricks e Apache Spark (PySpark). Le principali attività includeranno :

  • Sviluppo e gestione di pipeline ETL : progettazione, implementazione e ottimizzazione di pipeline per il trattamento e la trasformazione dei dati provenienti da fonti diverse (cloud e on-premises).
  • Integrazione dei dati tra sistemi : garantire l'integrazione dei dati tra ambienti cloud (Azure) e sistemi on-premises, con l'obiettivo di rendere i dati accessibili e fruibili per le analisi.
  • Analisi dei dati finanziari : gestione e analisi di dati relativi a fatturazione e reportistica finanziaria, con la creazione di report e dashboard ad hoc.
  • Creazione di report e visualizzazioni : costruzione di report dettagliati e visualizzazioni dei dati, utilizzando strumenti come Power BI (con possibilità di crescita e approfondimento dell'esperienza) e Excel.
  • Ottimizzazione dei processi di reporting : automazione e ottimizzazione di attività ripetitive di analisi dei dati, con l'obiettivo di migliorare l'efficienza e la qualità del flusso di lavoro.
  • Collaborazione con il team IT e business : lavorare a stretto contatto con altre funzioni aziendali per comprendere le esigenze di dati e tradurle in soluzioni tecniche efficienti.
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.