Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Senior AI Engineer

OTHERSIDE TECHNOLOGY

Milano

In loco

EUR 45.000 - 55.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una software house innovativa a Milano cerca un Senior AI Engineer per progettare soluzioni AI. È richiesta esperienza di oltre 7 anni in backend, con competenze in Python e AI/ML. Offriamo un ambiente stimolante con un team motivato. La posizione è full-time in presenza in Piazza Diaz, Milano.

Competenze

  • Esperienza di oltre 7 anni nello sviluppo software backend.
  • Almeno 5 anni in progetti AI/ML reali.
  • Competenze in LLM, RAG e fine-tuning.

Mansioni

  • Progettare e sviluppare LLM privati.
  • Disegnare pipeline RAG scalabili.
  • Esporre API integrate con i moduli AI.

Conoscenze

Esperienza nello sviluppo software backend
Conoscenza di Python
Competenze in AI/ML industriali
Capacità di comunicazione

Strumenti

Docker
Kubernetes
MLflow
Hugging Face
Descrizione del lavoro

RAL: €45.000 – €55.000 (in base a esperienza e fit)

Contratto: Full-time, in presenza (no full remote / ibrido al momento)

Otherside Technology è una software house AI-driven che sviluppa prodotti interni e soluzioni enterprise per PMI e grandi imprese. Siamo early-stage, con grandi ambizioni e già in collaborazione con realtà strutturate.

Crediamo in un approccio etico, human-centric all’AI e siamo convinti che lavorare insieme in ufficio sia l’unico modo per creare l’energia e la magia necessarie a costruire qualcosa di grande.

Per potenziare il nostro team stiamo cercando un/una Senior AI Engineer con forte background da backend engineer, capace di muoversi tra codice, architetture e business, parla italiano e inglese.

  • Progettare e sviluppare LLM private/local (on-prem / VPC) e soluzioni di GenAI integrate nei nostri prodotti interni.
  • Disegnare e implementare pipeline RAG scalabili, dalla data ingestion alla ricerca semantica (vector DB) fino alla generazione.
  • Eseguire fine-tuning / adattamento di LLM su dati proprietari usando l’ecosistema Hugging Face (Transformers, Hub, Datasets, ecc.)
  • Orchestrare applicazioni LLM usando framework come LangChain, LlamaIndex, Haystack o equivalenti per costruire agenti, tool-augmented chat, workflow di retrieval avanzati.
  • Scegliere e integrare vector database moderni (es. Pinecone, Weaviate, Qdrant, pgvector, Chroma, Milvus, ecc.) in architetture di prodotto enterprise.
  • Esporre API pulite e robuste, integrate con i moduli AI.
  • Lavorare a stretto contatto con UX/UI, product e business per creare prodotti interni che siano davvero usabili e ad alto impatto.
  • Scrivere documentazione tecnica chiara (architetture, decision log, API, playbook MLOps).
  • Contribuire alla definizione di best practice AI & MLOps: tracking esperimenti, model registry, monitoring (es. MLflow o strumenti analoghi).

Tech & framework che ci interessa tu conosca (o sia pronto/a a padroneggiare)

Lato AI / LLM / RAG

  • Ecosistema Hugging Face (Transformers, Hub, Datasets, Evaluate, ecc.).
  • Framework LLM: LangChain, LlamaIndex, Haystack, idealmente conoscenza comparativa dei loro punti di forza (agent pipelines, retrieval-centric, search/chatbot, ecc.).
  • Concetti di agents, tool calling, prompt orchestration.
  • Integrazione con LLM proprietari e open-source (es. GPT-like, LLaMA-family, ecc.).

Lato dati / RAG infra

  • Vector DB: esperienza pratica con almeno uno tra Pinecone, Weaviate, Qdrant, Milvus/Zilliz, Chroma, pgvector o similari, consapevolezza di pro/contro in termini di scalabilità, costi, hybrid search e manutenzione.
  • Esperienza con pipeline di ingestion e indicizzazione (document loaders, chunking, metadata, schema design).

Lato MLOps / software engineering

  • CI/CD, containerizzazione (Docker, idealmente Kubernetes o orchestratori equivalenti).
  • Esperienza con tool di MLOps / GenAI lifecycle (es. MLflow, Weights & Biases o analoghi).
  • Buona conoscenza di almeno un cloud (AWS/Azure/GCP).

Cosa chiediamo (requisiti)

  • +7 anni di esperienza nello sviluppo software backend (prevalentemente Python).
  • +5 anni di esperienza in progetti AI/ML industriali, con almeno alcuni casi in produzione.
  • Esperienza pratica con LLM, RAG e fine-tuning (non solo PoC da notebook).
  • Capacità di pensare in modo architetturale: scalabilità, costi, latency, maintainability, sicurezza.
  • Mentalità ibrida consulenziale + tecnica: sai parlare con stakeholder non tecnici, tradurre esigenze business in soluzioni, discutere trade-off.
  • Eccellenti capacità di comunicazione e lavoro in team multidisciplinare.
  • Attenzione alla user experience: l’AI deve essere percepita come utile, affidabile e semplice.
  • Allineamento con i nostri valori: approccio etico, human-centric, focus su impatto reale.
  • Disponibilità a lavorare tutti i giorni in presenza nel nostro ufficio in Piazza Diaz, Milano.
  • Ruolo centrale nella definizione della nostra AI strategy interna e dei prodotti che costruiremo nei prossimi anni.
  • Ambiente early-stage ma già con progetti concreti e clienti strutturati.
  • Team piccolo, molto motivato, dove il tuo contributo conta davvero.
  • Cultura che mette al centro le persone e la crescita professionale, con attenzione a etica, qualità del lavoro e sostenibilità.

Se ti riconosci in questo profilo e ti piace l’idea di costruire prodotti AI reali, non solo demo, lavorando fianco a fianco con il team in centro a Milano:

Invia il tuo CV + portfolio progetti (GitHub, repo, case study) direttamente qui su LinkedIn

Puoi anche aggiungere un breve testo in cui racconti:

  • un progetto LLM/RAG di cui sei orgoglioso/a,
  • che ruolo hai avuto,
  • che scelte architetturali hai fatto e perché.
  • Colloquio conoscitivo con il CEO
  • Test tecnico e colloquio con CTO
  • Ultimo colloquio con il team
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.