Attiva gli avvisi di lavoro via e-mail!

Unieuro - Data Engineer

Unieuro S.p.A.

Forlì

Ibrido

EUR 35.000 - 50.000

Tempo pieno

20 giorni fa

Descrizione del lavoro

Un'azienda operante nel settore dell'elettronica cerca un Data Engineer da inserire nel team Advanced Analytics. Il candidato ideale avrà almeno 2 anni di esperienza, con ottima padronanza di Python e SQL, e dovrà lavorare su progettazione e sviluppo di pipeline dati su GCP, collaborando attivamente con altri team. Si offre la possibilità di smart working e un ambiente di lavoro innovativo.

Servizi

Smart working
Formazione continua
Ambiente di lavoro dinamico

Competenze

  • Esperienza con pipeline dati e modelli Machine Learning.
  • Familiarità con strumenti di orchestrazione.
  • Buona conoscenza della lingua inglese.

Mansioni

  • Progettare e sviluppare pipeline dati su cloud GCP.
  • Collaborare con Data Scientist e Data Analyst.
  • Gestire processi di CI/CD utilizzando GitHub.
  • Partecipare alla raccolta requisiti con i team tecnici.
  • Proporre soluzioni innovative per l’ecosistema dati.

Conoscenze

Python
SQL
CI/CD
GCP
Proattività
Analisi critica

Formazione

Almeno 2 anni di esperienza nel ruolo di Data Engineer

Strumenti

GitHub
Docker
Kubernetes
BigQuery
KNIME Analytics
Descrizione del lavoro
Overview

Per ampliare la nostra Area Omnichannel, siamo alla ricerca di un/una Data Engineer da inserire nel team Advanced Analytics, un team giovane e dinamico, composto da Data Analyst, Data Scientist ed altri Data Engineer.

Inserita in un contesto aziendale innovativo, in cui la cultura del dato è al centro delle decisioni strategiche, la risorsa entrerà a far parte di un Team di Advanced Analytics giovane, aperto al dialogo e alla crescita reciproca, dove settimanalmente avrà del tempo dedicato alla sperimentazione, alla formazione individuale e a quella di gruppo, per rimanere aggiornato e coltivare le sue competenze.

Responsibilities
  • Progettare e sviluppare pipeline dati su cloud GCP, principalmente su Cloud Composer (Airflow) e Vertex AI per orchestrare processi ETL e pipeline ML
  • Collaborare con Data Scientist e Data Analyst per la creazione e gestione di data lake, data mart e tabelle su BigQuery
  • Gestire processi di CI/CD e versionamento del codice tramite GitHub
  • Partecipare attivamente alla raccolta requisiti confrontandoti con team tecnici e di business
  • Proporre soluzioni innovative e contribuire al miglioramento continuo dell’ecosistema dati di Unieuro
Qualifications
  • Almeno 2 anni di esperienza nel ruolo di Data Engineer o similare
  • Ottima padronanza di Python e SQL
  • Esperienza con almeno uno dei principali cloud provider (GCP, AWS, Azure), con preferenza per GCP
  • Familiarità con pipeline dati, modelli Machine Learning e strumenti di orchestrazione
  • Conoscenza dei principi del code versioning e delle best practice CI/CD
  • Proattività, autonomia nella conduzione delle attività, spirito critico e orientatamento al miglioramento continuo
  • Buona conoscenza della lingua inglese
Nice to have
  • Conoscenza della piattaforma KNIME Analytics
  • Esperienza con database NoSQL (es. MongoDB, Firestore, DynamoDB)
  • Familiarità con i concetti di Data Mesh, Data Contract, Data Domain e Data Product
  • Esperienza nell’utilizzo di Confluence per la documentazione tecnica
  • Conoscenze di Docker e Kubernetes per la containerizzazione e gestione di ambienti distribuiti
Other information

La posizione prevedrà la possibilità di aderire al Regolamento di Smart Working aziendale, ferma restando la disponibilità a raggiungere le Sedi di Forlì e Milano in ragione delle esigenze organizzative che lo richiedessero e ai sensi del predetto regolamento.

La ricerca è rivolta a candidati ambo i sessi e i dati saranno trattati conformemente a quanto previsto dalla normativa in materia di protezione dei dati personali.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.