Senior Cloud Architect – ML Platform
Chi siamo
GANIGA è una startup deeptech italiana che sviluppa smart bins capaci di riconoscere e differenziare automaticamente i rifiuti. Combiniamo robotica, visione artificiale, AI e design industriale per creare prodotti robusti, scalabili e user-friendly, con l’obiettivo di rivoluzionare la raccolta differenziata e promuovere l’economia circolare.
Siamo un team giovane e dinamico, con mentalità startup: flessibili, veloci e orientati a creare impatto reale nel mondo.
Perché questo ruolo è importante
Cerchiamo un Senior Cloud Architect che diventi il punto di riferimento tecnico per l’intera infrastruttura di GANIGA, progettando un’architettura cloud-native su Google Cloud Platform capace di far scalare la nostra flotta di smart bins e le pipeline di visione artificiale. Sarai responsabile di implementare sistemi a microservizi ed event‑driven che permettano di addestrare e distribuire modelli AI in modo sicuro e veloce, garantendo osservabilità end‑to‑end e trasformando dati complessi in intelligenza operativa. Per noi GCP non è un semplice strumento ma il cuore pulsante del progetto, per questo cerchiamo un esperto che conosca la piattaforma nativamente e sappia governare l’intero ciclo di vita dei dati e dei modelli per supportare la nostra crescita tecnologica.
Responsabilità principali
- Design e Governo Architetturale : Definire e governare i blueprint architetturali, focalizzandosi su microservizi, architetture event‑driven, data governance e principi di security‑by‑design.
- Design e Implementazione MLOps : Progettare e implementare architetture per l’addestramento continuo (Continuous Training), il versioning e la distribuzione sicura dei modelli AI / Visione Artificiale in produzione (sia in cloud che Edge).
- Pipeline Dati e Ingestione IoT : Costruire architetture cloud scalabili per l’ingestione, l’elaborazione e lo storage di grandi volumi di dati IoT / telemetria e, in particolare, i dati necessari per il training AI (immagini, metadati) tramite servizi event‑driven (es. Pub/Sub).
- Stack Tecnologico GCP : Scelta, integrazione e supervisione dell’intero stack tecnologico in ambiente Google Cloud Platform (GCP), inclusi componenti di orchestrazione container (GKE) e soluzioni serverless.
- Infrastruttura as Code (IaC) : Progettare e automatizzare l’infrastruttura tramite strumenti IaC (es. Terraform, Bicep, CloudFormation / CDK) per il provisioning e la gestione delle risorse, con particolare attenzione agli ambienti di calcolo ad alte prestazioni (GPU, TPU).
- Sicurezza e Compliance : Definire e implementare le politiche di sicurezza (IAM, networking) per proteggere l’infrastruttura ML, i dataset sensibili e l’applicazione (OWASP best practice), garantendo autenticazione e protocolli sicuri.
- Resilienza e Osservabilità : Collaborare con i team SRE / DevSecOps per garantire resilienza, performance, logging, monitoraggio robusto delle pipeline ML e osservabilità end‑to‑end. Definire i criteri di Business Continuity e i livelli di RTO / RPO.
- Collaborazione Tecnica : Lavorare a stretto contatto con i Data Scientist e gli Ingegneri Software per supportare le loro esigenze infrastrutturali specifiche dell’AI e supportare il miglioramento continuo dei processi di rilascio, documentazione e knowledge transfer.
- Ottimizzazione Costi : Ottimizzare continuamente i costi delle risorse di calcolo e storage in ambiente GCP.
Requisiti minimi
- Esperienza : Solida esperienza (minimo 5 anni) nella progettazione e gestione di architetture cloud complesse, distribuite e in produzione.
- Cloud : Competenza approfondita e documentata in Google Cloud Platform (GCP).
- Architetture Distribuite : Ottima conoscenza dei pattern per microservizi, architetture multi‑tenant, architetture event‑driven e principi API‑first.
- Containerizzazione e Orchestrazione : Comprensione solida e pratica di containerizzazione (Docker) e orchestrazione (Kubernetes / GKE).
- IaC / Automazione : Esperienza pratica e padronanza nell’uso di strumenti IaC (Terraform) e scripting / programmazione per l’automazione (es. Python, Bash).
- MLOps e Data Pipeline : Esperienza nella creazione o gestione di pipeline di dati e di Machine Learning (MLOps).
- Sicurezza : Competenze solide su sicurezza applicativa, protocolli di autenticazione e best practice OWASP.
- Lingua : Inglese fluente.
Plus / Preferenze (Forte interesse per GCP)
- Certificazioni GCP : Certificazioni attive su Google Cloud Platform.
- ML Compute : Esperienza specifica nell’allocazione e ottimizzazione di risorse di calcolo per l’addestramento di modelli di Deep Learning (GPU / TPU).
- Strumenti MLOps : Esperienza con strumenti specifici di MLOps (es. Kubeflow, MLflow, DVC) e nell’integrazione di servizi LLM all’interno dell’ecosistema tecnologico.
- IoT Cloud : Competenza in soluzioni IoT Cloud (es. Google Cloud IoT Core).
Soft skills & Mentalità
- Mentalità da Startup : Flessibilità, adattabilità e capacità di prendere decisioni architetturali rapide ma informate.
- Visione Strategica : Capacità di bilanciare le esigenze immediate del Data Science con la scalabilità a lungo termine della piattaforma.
- Ownership : Forte ownership e responsabilità sull’affidabilità e la sicurezza dell’infrastruttura.
- Comunicazione : Ottime capacità comunicative per spiegare architetture complesse a team multidisciplinari.
- Proattività : Approccio proattivo al problem solving e al miglioramento continuo.
Lavoro ibrido : 3 giorni in ufficio 2 in smart (non siamo fiscali, vige il buon senso)
RAL 70k - 80k commisurati all’esperienza