Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Software Engineer - Mlops

Agap2 Italia

Milano

In loco

EUR 40.000 - 60.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda tecnologica innovativa sta cercando un AI Software Engineer esperto nel campo del Machine Learning e MLOps. Il candidato ideale avrà competenze in Python, Docker, Kubernetes e capacità di collaborare in team per sviluppare soluzioni AI scalabili e sicure. Sede di lavoro a Roma Tiburtina con opportunità di lavoro full-time.

Competenze

  • Esperienza in Machine Learning, Large Language Models e Generative AI.
  • Competenze in MLOps e cloud computing.
  • Abilità nell'integrazione di modelli di intelligenza artificiale.

Mansioni

  • Implementare e gestire processi MLOps.
  • Integrazione di modelli ML nelle infrastrutture cloud.
  • Collaborare con team multifunzionali per soluzioni AI.

Conoscenze

Python
FastAPI
SQLAlchemy
PyTorch
Docker
Kubernetes
Terraform
CloudFormation
Hugging Face
spaCy

Strumenti

Git
Descrizione del lavoro
AI Software Engineer | MLOps – Decision Intelligence

Sede : Roma Tiburtina (RM), Lazio (IT)

Tipo di Impiego : Full Time

Profilo professionale

Professionista esperto in Machine Learning, Large Language Models (LLMs) e Generative AI, con competenze avanzate in MLOps, cloud computing e container orchestration. Consolidata esperienza nello sviluppo, integrazione e monitoraggio di modelli di intelligenza artificiale su piattaforme cloud scalabili, sicure e automatizzate.

Responsabilità principali
  • Implementazione e gestione dei processi MLOps per garantire scalabilità, sicurezza e affidabilità dei modelli ML.
  • Utilizzo di approcci innovativi nel campo del Machine Learning, con focus su LLM e AI generativa.
  • Integrazione dei modelli ML nelle infrastrutture cloud tramite strumenti Infrastructure as Code (Terraform, CloudFormation).
  • Progettazione e implementazione di architetture container-based con Docker e Kubernetes.
  • Sviluppo e ottimizzazione di script di automazione per migliorare l’efficienza operativa.
  • Collaborazione con team multifunzionali per tradurre i requisiti del cliente in soluzioni AI scalabili e affidabili.
Competenze tecniche principali
  • Python, FastAPI, SQLAlchemy, Alembic, Gunicorn
  • PyTorch, Transformers, Sentence-Transformers, scikit-learn, spaCy
  • LangChain, LangChain-Community, LangChain-Ollama
  • Hugging Face Hub, Faiss (vector similarity search)
  • NumPy, SciPy, pandas, Joblib
  • Torch CUDA stack (nvidia-cuda, cudnn, triton)
  • Rich, Loguru, Typer (CLI e logging avanzato)
  • FastAPI-Healthz, SQLModel, Pydantic, Pydantic-Settings
  • Requests, HTTPX, Aiohttp (integrazioni e API async)
  • spaCy (NLP : NER, POS tagging, dependency parsing, embeddings)
MLOps & DevOps
  • Docker, Kubernetes, Terraform, CloudFormation, Kubeflow
  • CI / CD pipelines, logging distribuito, monitoraggio con Prometheus
  • Gestione modelli in produzione (deployment, retraining, audit)
  • PostgreSQL, integrazione con ORM e gestione migrazioni con Alembic
  • Integrazione con LLM tramite LangChain + Ollama
  • Esperienza su Hugging Face, OpenAI e modelli Sentence Transformers
  • Vector database con FAISS CPU
  • Utilizzo di Transformers per embedding e text generation
Soft Skills
  • Spiccato problem solving e capacità di affrontare problematiche tecniche complesse.
  • Ottime doti comunicative e di collaborazione in team cross-funzionali.
  • Attitudine all’innovazione e all’apprendimento continuo in ambito AI.

Se pensi possa essere l'opportunità giusta per te, non esitare a candidarti e ad inoltrarci il CV!

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.