Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer - Azure E Apache Spark

Software Inside Srl

Montà

In loco

EUR 35.000 - 50.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una società di consulenza nel settore IT è alla ricerca di un Data Engineer esperto per gestire flussi di dati utilizzando Azure e Apache Spark. Il candidato ideale avrà almeno 2 anni di esperienza e sarà responsabile dello sviluppo e ottimizzazione delle pipeline ETL, integrazione dei dati e creazione di report analitici. Si offre un ambiente dinamico con possibilità di crescita professionale.

Competenze

  • Esperienza di almeno 2 anni come Data Engineer.
  • Capacità di progettare e ottimizzare pipeline ETL.
  • Competenze nell'integrazione dei dati tra sistemi cloud e on-premises.

Mansioni

  • Gestire e ottimizzare flussi di dati utilizzando Azure e Apache Spark.
  • Creare report e dashboard per analisi finanziarie.
  • Collaborare con team IT e business per soddisfare le esigenze di dati.

Conoscenze

Competenze in Azure
Conoscenza di Apache Spark
Analisi dei dati finanziari
Sviluppo ETL
Utilizzo di Power BI

Strumenti

Azure Databricks
Power BI
Excel
Descrizione del lavoro
Descrizione azienda

Software Inside S.r.l. è una Software House italiana che opera dal 2016 come società di consulenza nei settori Bancario & Finanza, Cyber Security, Telecomunicazioni, Energy & Utilities.

Ci collochiamo nel settore dell'Information Technology proponendoci come obiettivo quello di fornire una vasta gamma di prodotti, servizi e soluzioni nelle aree più strategiche per l'impresa, come : Infrastrutture IT, Content Management, ERP, Business Intelligence, CRM, Web Applications.

Posizione

Per importante cliente siamo alla ricerca di un Data Engineer con competenze in Azure e Apache Spark.

Esperienza di almeno 2 anni nella mansione

La risorsa sarà inserita all'interno di un team dinamico e avrà il compito di gestire e ottimizzare il flusso di dati attraverso l'utilizzo di Azure Databricks e Apache Spark (PySpark). Le principali attività includeranno :

  • Sviluppo e gestione di pipeline ETL : progettazione, implementazione e ottimizzazione di pipeline per il trattamento e la trasformazione dei dati provenienti da fonti diverse (cloud e on-premises).
  • Integrazione dei dati tra sistemi : garantire l'integrazione dei dati tra ambienti cloud (Azure) e sistemi on-premises, con l'obiettivo di rendere i dati accessibili e fruibili per le analisi.
  • Analisi dei dati finanziari : gestione e analisi di dati relativi a fatturazione e reportistica finanziaria, con la creazione di report e dashboard ad hoc.
  • Creazione di report e visualizzazioni : costruzione di report dettagliati e visualizzazioni dei dati, utilizzando strumenti come Power BI (con possibilità di crescita e approfondimento dell'esperienza) e Excel.
  • Ottimizzazione dei processi di reporting : automazione e ottimizzazione di attività ripetitive di analisi dei dati, con l'obiettivo di migliorare l'efficienza e la qualità del flusso di lavoro.
  • Collaborazione con il team IT e business : lavorare a stretto contatto con altre funzioni aziendali per comprendere le esigenze di dati e tradurle in soluzioni tecniche efficienti.
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.