Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Randstad Enterprise Italia

Terni

Ibrido

EUR 35.000 - 50.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'agenzia di ricerca personale cerca un Data Engineer per gestire il ciclo di vita del dato. La figura svilupperà flussi ETL utilizzando Azure Data Factory e Databricks, garantendo la qualità del dato e lavorando con un team di Data Science. Richiesta laurea in discipline STEM e competenze in Python e SQL. Offerta di assunzione diretta in un ambiente dinamico, con supporto professionale e opportunità di crescita.

Servizi

Retribuzione competitiva
Benefit
Politiche di wellbeing

Competenze

  • Laurea in discipline STEM.
  • Esperienza su Databricks, Datalake e Azure Data Factory.
  • Conoscenza di Python e SQL per manipolazione di dati complessi.
  • Esperienza nella creazione di flussi ETL e architetture cloud/serverless.
  • Abitudine a lavorare con metodologia Agile.

Mansioni

  • Governare l'intero ciclo di vita del dato.
  • Progettare, costruire e automatizzare pipeline dati (ETL).
  • Garantire qualità e coerenza del dato.

Conoscenze

Python
SQL
Azure Data Factory
Databricks
Agile methodology

Formazione

Laurea in discipline STEM

Strumenti

PowerBI
DevOps
SAP Business Object
Qlik
Tableau
IBM Cognos
Descrizione del lavoro

Randstad Enterprise Italia, per conto di un prestigioso cliente – operante nel settore insurance – è alla ricerca di un / una Data Engineer .

La figura avrà la responsabilità di governare l'intero ciclo di vita del dato. Questo avverrà attraverso la progettazione, la costruzione e l'automazione di pipeline dati (ETL), con l'obiettivo di preparare e rendere disponibili le informazioni per il team di Data Science.

Attività Principali
  • Sviluppare e mantenere flussi ETL usando Azure Data Factory e Databricks.
  • Automatizzare l'estrazione dei dati dai sistemi sorgenti.
  • Scrivere codice performante in Python e SparkSQL.
  • Garantire la qualità e la coerenza del dato.
Requisiti
  • Laurea in discipline STEM
  • Esperienza concreta su Databricks, Datalake e Azure Data Factory.
  • Ottima conoscenza di Python e SQL per la manipolazione di dati complessi.
  • Esperienza dimostrabile nella creazione di flussi ETL e con architetture cloud / serverless.
  • Abitudine a lavorare con metodologia Agile.
Nice to have
  • Esperienza con strumenti di visualizzazione (es. PowerBI) e DevOps.
  • Esperienza nell'implementazione di API REST
  • Familiarità con altri strumenti di visualizzazione come SAP Business Object, Qlik, Tableau, IBM Cognos.
Offerta
  • Assunzione diretta con il Cliente.
  • Ambiente di lavoro dinamico e stimolante in un gruppo multinazionale.
  • Opportunità di crescita professionale e aggiornamento continuo.
  • Supporto di un team di professionisti altamente qualificati.
  • Pacchetto retributivo che valorizza la persona attraverso una retribuzione competitiva, benefit e concrete politiche di wellbeing.
Modalità di Lavoro :

Ibrida (ufficio Bari + 12 giorni di smartworking / mese)

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.