Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Software Engineer - Mlops

Agap2 Italia

Lazio

In loco

EUR 40.000 - 55.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda tech affermata cerca un AI Software Engineer esperto in MLOps con competenze in Machine Learning e Generative AI. Il candidato ideale ha esperienza nella progettazione di architetture container-based e nell'integrazione di modelli ML in infrastrutture cloud. Offriamo un contratto full time e un ambiente di lavoro innovativo a Roma.

Competenze

  • Esperienza negli MLops e Machine Learning, con focus su LLM e AI generativa.
  • Capacità di progettare architetture container-based con Docker e Kubernetes.
  • Competenza nell'integrazione dei modelli ML nelle infrastrutture cloud.

Mansioni

  • Implementare e gestire i processi MLOps per garantire scalabilità e sicurezza.
  • Collaborare con team multidisciplinari per tradurre requisiti in soluzioni AI.
  • Sviluppare e ottimizzare script di automazione per migliorare l'efficienza.

Conoscenze

Python
Machine Learning
MLOps
Docker
Kubernetes
Cloud Computing

Strumenti

FastAPI
PyTorch
Terraform
Prometheus
PostgreSQL
Descrizione del lavoro

AI Software Engineer | MLOps – Decision Intelligence

Sede : Roma Tiburtina (RM), Lazio (IT) Tipo di Impiego : Full Time

Profilo professionale : Professionista esperto in Machine Learning, Large Language Models (LLMs) e Generative AI, con competenze avanzate in MLOps, cloud computing e container orchestration. Consolidata esperienza nello sviluppo, integrazione e monitoraggio di modelli di intelligenza artificiale su piattaforme cloud scalabili, sicure e automatizzate.

Responsabilità principali
  • Implementazione e gestione dei processi MLOps per garantire scalabilità, sicurezza e affidabilità dei modelli ML.
  • Utilizzo di approcci innovativi nel campo del Machine Learning, con focus su LLM e AI generativa.
  • Integrazione dei modelli ML nelle infrastrutture cloud tramite strumenti Infrastructure-as-Code (Terraform, CloudFormation).
  • Progettazione e implementazione di architetture container‑based con Docker e Kubernetes.
  • Sviluppo e ottimizzazione di script di automazione per migliorare l’efficienza operativa.
  • Collaborazione con team multifunzionali per tradurre i requisiti del cliente in soluzioni AI scalabili e affidabili.
Competenze tecniche principali
  • Python, FastAPI, SQLAlchemy, Alembic, Gunicorn
  • PyTorch, Transformers, Sentence-Transformers, scikit-learn, spaCy
  • LangChain, LangChain-Community, LangChain-Ollama
  • Hugging Face Hub, Faiss (vector similarity search)
  • NumPy, SciPy, pandas, Joblib
  • Torch CUDA stack (nvidia-cuda, cudnn, triton)
  • Rich, Loguru, Typer (CLI e logging avanzato)
  • FastAPI-Healthz, SQLModel, Pydantic, Pydantic-Settings
  • Requests, HTTPX, Aiohttp (integrazioni e API async)
  • SpaCy (NLP : NER, POS tagging, dependency parsing, embeddings)
  • MLOps & DevOps: Docker, Kubernetes, Terraform, CloudFormation, Kubeflow
  • CI / CD pipelines, logging distribuito, monitoraggio con Prometheus
  • Gestione modelli in produzione (deployment, retraining, audit)
  • PostgreSQL, integrazione con ORM e gestione migrazioni con Alembic
  • Integrazione con LLM tramite LangChain + Ollama
  • Esperienza su Hugging Face, OpenAI e modelli Sentence Transformers
  • Vector database con FAISS CPU
  • Utilizzo di Transformers per embedding e text generation
Soft Skills
  • Spiccato problem solving e capacità di affrontare problematiche tecniche complesse.
  • Ottime doti comunicative e di collaborazione in team cross-funzionali.
  • Attitudine all’innovazione e all’apprendimento continuo in ambito AI.

Se pensi possa essere l'opportunità giusta per te, non esitare a candidarti e ad inoltrarci il CV!

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.