Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

ML Engineer

CRAON

Milano

Ibrido

EUR 50.000 - 70.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda ICT innovativa di Milano cerca un middle Machine Learning Engineer. La figura ideale avrà esperienza con Databricks e conoscenze in MLOps e cloud services. Si offre un contratto a tempo indeterminato, con possibilità di lavoro ibrido. È fondamentale saper gestire pipeline dati e collaborare in team. Ottime opportunità di crescita e un ambiente stimolante sono assicurati.

Competenze

  • Esperienza consolidata nello sviluppo e deployment di soluzioni ML scalabili.
  • Competenze in orchestrazione ML e integrazione di modelli in produzione.
  • Conoscenza di pipeline distribuite e gestione cluster.

Mansioni

  • Sviluppare e implementare soluzioni di Machine Learning.
  • Lavorare su pipeline dati complesse in ambienti cloud.
  • Collaborare con data scientist e ingegneri per soluzioni scalabili.

Conoscenze

Databricks
Machine Learning
MLOps
PySpark
Cloud Services (Azure, AWS, GCP)
Data Engineering
Python
Problem Solving

Strumenti

Git
Docker
Terraform
Descrizione del lavoro

Il nostro obiettivo è sempre stato quello di creare e ampliare nel tempo un gruppo di persone qualificato, affidabile e disponibile; puntando su professionisti esperti, ma anche sulla formazione, investendo risorse nella crescita professionale. Dipendenti e collaboratori attraverso consolidate competenze tecniche, contribuiscono a rendere Craon un’azienda altamente qualificata e competitiva sul mercato ICT.

Stiamo ricercando un middle Machine Learning Engineer con esperienza consolidata nello sviluppo e deployment di soluzioni ML scalabili su Databricks . Specializzato nella gestione di pipeline dati complesse, orchestrazione ML e MLOps, integrazione di modelli in produzione e ottimizzazione delle performance su infrastrutture cloud enterprise.

È richiesta conoscenza di almeno uno dei principali cloud provider (Azure, AWS, GCP), con capacità di lavorare su pipeline distribuite e di gestire cluster, storage e servizi cloud in modo efficiente.

Abituato a lavorare su progetti end-to-end : dall’ingestione e trasformazione dei dati, all’addestramento di modelli, al monitoraggio e retraining automatico in produzione. Forte attitudine alla collaborazione con data scientist, data engineer e team di prodotto per garantire soluzioni affidabili, scalabili e ad alto impatto.

Competenze tecniche:
  • Databricks & Big Data
    • Esperienza avanzata con Databricks
    • PySpark, Spark SQL per elaborazione batch e streaming
    • Delta Lake, Lakehouse architecture, Delta Live Tables
    • Workflow e orchestrazione con Databricks Jobs & Workflows
    • MLflow per tracking esperimenti, versionamento modelli e deployment
  • Machine Learning / MLOps
    • Modellazione supervisionata e non supervisionata
    • Feature engineering su dataset enterprise di grandi dimensioni
    • Deployment di modelli ML / AI come microservizi o endpoint API
    • Monitoraggio modelli, drift detection e pipeline di retraining automatico
    • CI / CD per modelli tramite GitHub Actions, GitLab CI o Azure DevOps
  • Cloud & Infrastruttura
    • Conoscenza richiesta di almeno uno tra i principali cloud provider (Azure, AWS, GCP)
    • Gestione cluster, networking, sicurezza e storage cloud (ADLS, S3, GCS)
    • Deployment di workflow batch e real-time su cloud provider differenti
  • Data Engineering
    • ETL / ELT con PySpark e Delta Live Tables
    • Gestione data lakehouse e grandi volumi di dati
    • SQL avanzato e ottimizzazione query
  • Backend & API
    • Python (FastAPI / Flask) per servire modelli come microservizi
    • Containerizzazione con Docker
    • Orchestrazione workflow e gestione pipeline batch / real-time
  • Tooling
    • Git, CI / CD, Azure DevOps / GitHub Actions / GitLab CI
    • Logging e monitoring (CloudWatch, Azure Monitor, GCP Stackdriver)
    • IaC : Terraform o Bicep (nice‑to‑have)
  • Soft Skills
    • problem solving e pensiero analitico
    • Capacità di lavorare in team multidisciplinari (data scientist, data engineer, product owner)
    • Attitudine alla collaborazione e comunicazione efficace
    • Autonomia nella gestione delle task e delle pipeline di lavoro
    • Approccio pragmatico e orientato ai risultati
    • Capacità di gestire progetti complessi e scadenze
Sede : Milano (ibrido)

La posizione contrattuale prevede un contratto a tempo indeterminato CNNL Commercio e servizi; RAL in relazione all’esperienza effettivamente maturata o contratto in P.IVA

Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.