Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Senior Cloud Architect

Ganiga

Cascina

In loco

EUR 70.000 - 80.000

Tempo pieno

17 giorni fa

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una startup innovativa in Italia cerca un Senior Cloud Architect per progettare la loro infrastruttura cloud su Google Cloud Platform. Il candidato sarà responsabile di orchestrare microservizi, implementare pratiche di MLOps e garantire la sicurezza dell'infrastruttura ML. Richiesta un'esperienza consolidata in architetture distribuite e conoscenza approfondita di GCP. È previsto un lavoro ibrido con un RAL compreso tra 70k e 80k, a seconda dell'esperienza.

Competenze

  • Minimo 5 anni di esperienza nella progettazione e gestione di architetture cloud complesse.
  • Competenze approfondite in Google Cloud Platform.
  • Solidità nelle pratiche di containerizzazione e orchestrazione.

Mansioni

  • Definire e governare i blueprint architetturali per l'infrastruttura.
  • Progettare e implementare architetture per il Continuous Training dei modelli AI.
  • Costruire architetture cloud per l'ingestione e l'elaborazione di dati IoT.

Conoscenze

Cloud e architetture distribuite
Containerizzazione (Docker)
Orchestrazione (Kubernetes / GKE)
Automazione (Terraform)
Machine Learning (MLOps)
Sicurezza applicativa
Lingua inglese fluente

Strumenti

Google Cloud Platform
Kubeflow
MLflow
Descrizione del lavoro

Senior Cloud Architect – ML Platform

Chi siamo

GANIGA è una startup deeptech italiana che sviluppa smart bins capaci di riconoscere e differenziare automaticamente i rifiuti. Combiniamo robotica, visione artificiale, AI e design industriale per creare prodotti robusti, scalabili e user-friendly, con l’obiettivo di rivoluzionare la raccolta differenziata e promuovere l’economia circolare.

Siamo un team giovane e dinamico, con mentalità startup: flessibili, veloci e orientati a creare impatto reale nel mondo.

Perché questo ruolo è importante

Cerchiamo un Senior Cloud Architect che diventi il punto di riferimento tecnico per l’intera infrastruttura di GANIGA, progettando un’architettura cloud-native su Google Cloud Platform capace di far scalare la nostra flotta di smart bins e le pipeline di visione artificiale. Sarai responsabile di implementare sistemi a microservizi ed event‑driven che permettano di addestrare e distribuire modelli AI in modo sicuro e veloce, garantendo osservabilità end‑to‑end e trasformando dati complessi in intelligenza operativa. Per noi GCP non è un semplice strumento ma il cuore pulsante del progetto, per questo cerchiamo un esperto che conosca la piattaforma nativamente e sappia governare l’intero ciclo di vita dei dati e dei modelli per supportare la nostra crescita tecnologica.

Responsabilità principali
  • Design e Governo Architetturale : Definire e governare i blueprint architetturali, focalizzandosi su microservizi, architetture event‑driven, data governance e principi di security‑by‑design.
  • Design e Implementazione MLOps : Progettare e implementare architetture per l’addestramento continuo (Continuous Training), il versioning e la distribuzione sicura dei modelli AI / Visione Artificiale in produzione (sia in cloud che Edge).
  • Pipeline Dati e Ingestione IoT : Costruire architetture cloud scalabili per l’ingestione, l’elaborazione e lo storage di grandi volumi di dati IoT / telemetria e, in particolare, i dati necessari per il training AI (immagini, metadati) tramite servizi event‑driven (es. Pub/Sub).
  • Stack Tecnologico GCP : Scelta, integrazione e supervisione dell’intero stack tecnologico in ambiente Google Cloud Platform (GCP), inclusi componenti di orchestrazione container (GKE) e soluzioni serverless.
  • Infrastruttura as Code (IaC) : Progettare e automatizzare l’infrastruttura tramite strumenti IaC (es. Terraform, Bicep, CloudFormation / CDK) per il provisioning e la gestione delle risorse, con particolare attenzione agli ambienti di calcolo ad alte prestazioni (GPU, TPU).
  • Sicurezza e Compliance : Definire e implementare le politiche di sicurezza (IAM, networking) per proteggere l’infrastruttura ML, i dataset sensibili e l’applicazione (OWASP best practice), garantendo autenticazione e protocolli sicuri.
  • Resilienza e Osservabilità : Collaborare con i team SRE / DevSecOps per garantire resilienza, performance, logging, monitoraggio robusto delle pipeline ML e osservabilità end‑to‑end. Definire i criteri di Business Continuity e i livelli di RTO / RPO.
  • Collaborazione Tecnica : Lavorare a stretto contatto con i Data Scientist e gli Ingegneri Software per supportare le loro esigenze infrastrutturali specifiche dell’AI e supportare il miglioramento continuo dei processi di rilascio, documentazione e knowledge transfer.
  • Ottimizzazione Costi : Ottimizzare continuamente i costi delle risorse di calcolo e storage in ambiente GCP.
Requisiti minimi
  • Esperienza : Solida esperienza (minimo 5 anni) nella progettazione e gestione di architetture cloud complesse, distribuite e in produzione.
  • Cloud : Competenza approfondita e documentata in Google Cloud Platform (GCP).
  • Architetture Distribuite : Ottima conoscenza dei pattern per microservizi, architetture multi‑tenant, architetture event‑driven e principi API‑first.
  • Containerizzazione e Orchestrazione : Comprensione solida e pratica di containerizzazione (Docker) e orchestrazione (Kubernetes / GKE).
  • IaC / Automazione : Esperienza pratica e padronanza nell’uso di strumenti IaC (Terraform) e scripting / programmazione per l’automazione (es. Python, Bash).
  • MLOps e Data Pipeline : Esperienza nella creazione o gestione di pipeline di dati e di Machine Learning (MLOps).
  • Sicurezza : Competenze solide su sicurezza applicativa, protocolli di autenticazione e best practice OWASP.
  • Lingua : Inglese fluente.
Plus / Preferenze (Forte interesse per GCP)
  • Certificazioni GCP : Certificazioni attive su Google Cloud Platform.
  • ML Compute : Esperienza specifica nell’allocazione e ottimizzazione di risorse di calcolo per l’addestramento di modelli di Deep Learning (GPU / TPU).
  • Strumenti MLOps : Esperienza con strumenti specifici di MLOps (es. Kubeflow, MLflow, DVC) e nell’integrazione di servizi LLM all’interno dell’ecosistema tecnologico.
  • IoT Cloud : Competenza in soluzioni IoT Cloud (es. Google Cloud IoT Core).
Soft skills & Mentalità
  • Mentalità da Startup : Flessibilità, adattabilità e capacità di prendere decisioni architetturali rapide ma informate.
  • Visione Strategica : Capacità di bilanciare le esigenze immediate del Data Science con la scalabilità a lungo termine della piattaforma.
  • Ownership : Forte ownership e responsabilità sull’affidabilità e la sicurezza dell’infrastruttura.
  • Comunicazione : Ottime capacità comunicative per spiegare architetture complesse a team multidisciplinari.
  • Proattività : Approccio proattivo al problem solving e al miglioramento continuo.

Lavoro ibrido : 3 giorni in ufficio 2 in smart (non siamo fiscali, vige il buon senso)

RAL 70k - 80k commisurati all’esperienza

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.