Attiva gli avvisi di lavoro via e-mail!

Unieuro - Data Engineer

Unieuro

Emilia-Romagna

Ibrido

EUR 35.000 - 50.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una rinomata azienda nel settore dell'elettronica sta cercando un Data Engineer da inserire nel team di Advanced Analytics. Si richiede esperienza in pipeline dati su cloud GCP, ottima padronanza di Python e SQL, e proattività. Si offre un ambiente di lavoro innovativo con opportunità di formazione e smart working. La posizione richiede disponibilità a recarsi nelle sedi di Forlì e Milano secondo necessità.

Servizi

Smart Working
Formazione individuale e di gruppo

Competenze

  • Almeno 2 anni di esperienza nel ruolo di Data Engineer o similare.
  • Ottima padronanza di Python e SQL.
  • Esperienza con almeno uno dei principali cloud provider (GCP, AWS, Azure).
  • Familiarità con pipeline dati e strumenti di orchestrazione.

Mansioni

  • Progettare e sviluppare pipeline dati su cloud GCP.
  • Collaborare con Data Scientist e Data Analyst.
  • Gestire processi di CI/CD e versionamento del codice.
  • Proporre soluzioni innovative per l'ecosistema dati.

Conoscenze

Python
SQL
Cloud GCP
Machine Learning
CI/CD
Proattività
Autonomia
Inglese buono

Strumenti

GitHub
KNIME Analytics
MongoDB
Docker
Kubernetes
Descrizione del lavoro

Per ampliare la nostra Area Omnichannel, siamo alla ricerca di un / una Data Engineer da inserire nel team Advanced Analytics, un team giovane e dinamico, composto da Data Analyst, Data Scientist ed altri Data Engineer.

Inserita in un contesto aziendale innovativo, in cui la cultura del dato è al centro delle decisioni strategiche, la risorsa entrerà a far parte di un Team di Advanced Analytics giovane, aperto al dialogo e alla crescita reciproca, dove settimanalmente avrà del tempo dedicato alla sperimentazione, alla formazione individuale e a quella di gruppo, per rimanere aggiornato e coltivare le sue competenze.

Responsabilità
  • Progettare e sviluppare pipeline dati su cloud GCP, principalmente su Cloud Composer (Airflow) e Vertex AI per orchestrare processi ETL e pipeline ML
  • Collaborare con Data Scientist e Data Analyst per la creazione e gestione di data lake, data mart tabelle su BigQuery
  • Gestire processi di CI / CD versionamento del codice tramite GitHub
  • Partecipare attivamente alla raccolta requisiti confrontandoti con team tecnici e di business
  • Proporre soluzioni innovative e contribuire al miglioramento continuo dell’ecosistema dati di Unieuro
Requisiti
  • Almeno 2 anni di esperienza nel ruolo di Data Engineer o similare
  • Ottima padronanza di Python e SQL
  • Esperienza con almeno uno dei principali cloud provider (GCP, AWS, Azure), con preferenza per GCP
  • Familiarità con pipeline dati, modelli Machine Learning e strumenti di orchestrazione
  • Conoscenza dei principi del code versioning e delle best practice CI / CD
  • Proattività, autonomia nella conduzione delle attività, spirito critico e orientamento al miglioramento continuo
  • Buona conoscenza della lingua inglese
Valori aggiuntivi
  • Conoscenza della piattaforma KNIME Analytics
  • Esperienza con database NoSQL (es. MongoDB, Firestore, DynamoDB)
  • Familiarità con i concetti di Data Mesh, Data Contract, Data Domain e Data Product
  • Esperienza nell’utilizzo di Confluence per la documentazione tecnica
  • Conoscenze di Docker e Kubernetes per la containerizzazione e gestione di ambienti distribuiti
Benefits

La posizione prevedrà la possibilità di aderire al Regolamento di Smart Working aziendale, ferma restando la disponibilità a raggiungere le Sedi di Forlì e Milano in ragione delle esigenze organizzative che lo richiedessero e ai sensi del predetto regolamento.

EEO Statement

La ricerca è rivolta a candidati ambo i sessi e i dati saranno trattati conformemente a quanto previsto dalla normativa in materia di protezione dei dati personali.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.