Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Randstad Enterprise Italia

Ascoli Piceno

Ibrido

EUR 35.000 - 50.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'agenzia di reclutamento cerca un Data Engineer per governare il ciclo di vita del dato in un ambiente ibrido. Il candidato sarà responsabile della progettazione e automazione di pipeline ETL usando strumenti come Azure Data Factory e Databricks. È richiesta una laurea STEM e competenze in Python e SQL. L'offerta include assunzione diretta, ambiente dinamico e pacchetto retributivo competitivo.

Servizi

Ambiente di lavoro dinamico
Opportunità di crescita professionale
Pacchetto retributivo competitivo
Supporto di un team altamente qualificato

Competenze

  • Esperienza concreta su Databricks, Datalake e Azure Data Factory.
  • Ottima conoscenza di Python e SQL per la manipolazione di dati complessi.
  • Esperienza dimostrabile nella creazione di flussi ETL e con architetture cloud/serverless.

Mansioni

  • Governare l'intero ciclo di vita del dato.
  • Progettare, costruire e automatizzare pipeline dati (ETL).
  • Garantire la qualità e la coerenza del dato.

Conoscenze

ETL
Azure Data Factory
Python
SQL
SparkSQL
Datalake
Agile

Formazione

Laurea in discipline STEM

Strumenti

Databricks
PowerBI
API REST
SAP Business Object
Qlik
Tableau
IBM Cognos
Descrizione del lavoro

Randstad Enterprise Italia, per conto di un prestigioso cliente – operante nel settore insurance – è alla ricerca di un / una Data Engineer .

La figura avrà la responsabilità di governare l'intero ciclo di vita del dato. Questo avverrà attraverso la progettazione, la costruzione e l'automazione di pipeline dati (ETL), con l'obiettivo di preparare e rendere disponibili le informazioni per il team di Data Science.

Attività Principali
  • Sviluppare e mantenere flussi ETL usando Azure Data Factory e Databricks.
  • Automatizzare l'estrazione dei dati dai sistemi sorgenti.
  • Scrivere codice performante in Python e SparkSQL.
  • Garantire la qualità e la coerenza del dato.
Requisiti
  • Laurea in discipline STEM
  • Esperienza concreta su Databricks, Datalake e Azure Data Factory.
  • Ottima conoscenza di Python e SQL per la manipolazione di dati complessi.
  • Esperienza dimostrabile nella creazione di flussi ETL e con architetture cloud / serverless.
  • Abitudine a lavorare con metodologia Agile.
Nice to have
  • Esperienza con strumenti di visualizzazione (es. PowerBI) e DevOps.
  • Esperienza nell'implementazione di API REST
  • Familiarità con altri strumenti di visualizzazione come SAP Business Object, Qlik, Tableau, IBM Cognos.
Offerta
  • Assunzione diretta con il Cliente.
  • Ambiente di lavoro dinamico e stimolante in un gruppo multinazionale.
  • Opportunità di crescita professionale e aggiornamento continuo.
  • Supporto di un team di professionisti altamente qualificati.
  • Pacchetto retributivo che valorizza la persona attraverso una retribuzione competitiva, benefit e concrete politiche di wellbeing.
Modalità di Lavoro :

Ibrida (ufficio Bari + 12 giorni di smartworking / mese)

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.