Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Randstad Enterprise Italia

Varese

Ibrido

EUR 50.000 - 70.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'agenzia di reclutamento cerca un Data Engineer che gestisca l'intero ciclo di vita dei dati, sviluppando e mantenendo flussi ETL in Azure e Databricks. Richiesta laurea in discipline STEM, esperienza concreta in Databricks e Azure Data Factory, e competenze in Python e SQL. Lavoro ibrido con supporto professionale e opportunità di crescita.

Servizi

Assunzione diretta con il Cliente
Ambiente di lavoro dinamico e stimolante
Opportunità di crescita professionale
Benefici e politiche di wellbeing

Competenze

  • Esperienza concreta su Databricks, Datalake e Azure Data Factory.
  • Ottima conoscenza di Python e SQL per la manipolazione di dati complessi.
  • Esperienza dimostrabile nella creazione di flussi ETL e con architetture cloud/serverless.

Mansioni

  • Governare l'intero ciclo di vita del dato.
  • Sviluppare e mantenere flussi ETL usando Azure Data Factory e Databricks.
  • Automatizzare l'estrazione dei dati dai sistemi sorgenti.

Conoscenze

Databricks
Azure Data Factory
Python
SQL
ETL
Agile

Formazione

Laurea in discipline STEM

Strumenti

PowerBI
APIs REST
SAP Business Object
Qlik
Tableau
IBM Cognos
Descrizione del lavoro

Randstad Enterprise Italia, per conto di un prestigioso cliente – operante nel settore insurance – è alla ricerca di un / una Data Engineer .

La figura avrà la responsabilità di governare l'intero ciclo di vita del dato. Questo avverrà attraverso la progettazione, la costruzione e l'automazione di pipeline dati (ETL), con l'obiettivo di preparare e rendere disponibili le informazioni per il team di Data Science.

Attività Principali
  • Sviluppare e mantenere flussi ETL usando Azure Data Factory e Databricks.
  • Automatizzare l'estrazione dei dati dai sistemi sorgenti.
  • Scrivere codice performante in Python e SparkSQL.
  • Garantire la qualità e la coerenza del dato.
Requisiti
  • Laurea in discipline STEM
  • Esperienza concreta su Databricks, Datalake e Azure Data Factory.
  • Ottima conoscenza di Python e SQL per la manipolazione di dati complessi.
  • Esperienza dimostrabile nella creazione di flussi ETL e con architetture cloud / serverless.
  • Abitudine a lavorare con metodologia Agile.
Nice to have
  • Esperienza con strumenti di visualizzazione (es. PowerBI) e DevOps.
  • Esperienza nell'implementazione di API REST
  • Familiarità con altri strumenti di visualizzazione come SAP Business Object, Qlik, Tableau, IBM Cognos.
Offerta
  • Assunzione diretta con il Cliente.
  • Ambiente di lavoro dinamico e stimolante in un gruppo multinazionale.
  • Opportunità di crescita professionale e aggiornamento continuo.
  • Supporto di un team di professionisti altamente qualificati.
  • Pacchetto retributivo che valorizza la persona attraverso una retribuzione competitiva, benefit e concrete politiche di wellbeing.
Modalità di Lavoro :

Ibrida (ufficio Bari + 12 giorni di smartworking / mese)

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.