Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Randstad Enterprise Italia

Lazio

Ibrido

EUR 35.000 - 55.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'importante agenzia per il lavoro, operante nel settore insurance, cerca un Data Engineer per governare l'intero ciclo di vita del dato. La figura si occuperà di progettare e automatizzare pipeline dati utilizzando Azure Data Factory e Databricks, garantendo la qualità dei dati. Sono richieste solide competenze in Python e SQL, oltre ad esperienza con architetture cloud e metodologia Agile. Offriamo un ambiente dinamico e opportunità di crescita professionale.

Servizi

Retribuzione competitiva
Benefit
Politiche di wellbeing
Opportunità di crescita professionale

Competenze

  • Esperienza concreta su Databricks, Datalake e Azure Data Factory.
  • Ottima conoscenza di Python e SQL per la manipolazione di dati complessi.
  • Esperienza dimostrabile nella creazione di flussi ETL e architetture cloud/serverless.
  • Abitudine a lavorare con metodologia Agile.

Mansioni

  • Governare l'intero ciclo di vita del dato.
  • Sviluppare e mantenere flussi ETL usando Azure Data Factory e Databricks.
  • Automatizzare l'estrazione dei dati dai sistemi sorgenti.

Conoscenze

Python
SQL
Azure Data Factory
Databricks
Visualizzazione dati

Formazione

Laurea in discipline STEM

Strumenti

PowerBI
API REST HTTP
SAP Business Object
Qlik
Tableau
IBM Cognos
Descrizione del lavoro

Randstad Enterprise Italia, per conto di un prestigioso cliente – operante nel settore insurance – è alla ricerca di un / una Data Engineer .

La figura avrà la responsabilità di governare l'intero ciclo di vita del dato. Questo avverrà attraverso la progettazione, la costruzione e l'automazione di pipeline dati (ETL), con l'obiettivo di preparare e rendere disponibili le informazioni per il team di Data Science.

Attività Principali ⚙️
  • Sviluppare e mantenere flussi ETL usando Azure Data Factory e Databricks.
  • Automatizzare l'estrazione dei dati dai sistemi sorgenti.
  • Scrivere codice performante in Python e SparkSQL.
  • Garantire la qualità e la coerenza del dato.
Requisiti
  • Laurea in discipline STEM
  • Esperienza concreta su Databricks, Datalake e Azure Data Factoryli>
  • Ottima conoscenza di Python e SQL per la manipolazione di dati complessi.
  • Esperienza dimostrabile nella creazione di flussi ETL e con architetture cloud / serverless.
  • Abitudine a lavorare con metodologia Agile.
Nice to have
    <>Esperienza con strumenti di visualizzazione (es. PowerBI) e DevOps.
  • Esperienza nell'implementazione di API REST HTTP.
  • Familiarità con altri strumenti di visualizzazione come SAP Business Object, Qlik, Tableau, IBM Cognos.
Offerta
  • Assunzione diretta con il Cliente.
  • Ambiente di lavoro dinamico e stimolante in un gruppo multinazionale.
  • Opportunità di crescita professionale e aggiornamento continuo.
  • Supporto di un team di professionisti altamente qualificati.
  • Pacchetto retributivo che valorizza la persona attraverso una retribuzione competitiva, benefit e concrete politiche di wellbeing.

Modalità di Lavoro: Ibrida (ufficio Bari + 12 giorni di smartworking / mese)

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.