RAL: €45.000 – €55.000 (in base a esperienza e fit)
Contratto: Full-time, in presenza (no full remote / ibrido al momento)
Otherside Technology è una software house AI-driven che sviluppa prodotti interni e soluzioni enterprise per PMI e grandi imprese. Siamo early-stage, con grandi ambizioni e già in collaborazione con realtà strutturate.
Crediamo in un approccio etico, human-centric all’AI e siamo convinti che lavorare insieme in ufficio sia l’unico modo per creare l’energia e la magia necessarie a costruire qualcosa di grande.
Per potenziare il nostro team stiamo cercando un/una Senior AI Engineer con forte background da backend engineer, capace di muoversi tra codice, architetture e business, parla italiano e inglese.
- Progettare e sviluppare LLM private/local (on-prem / VPC) e soluzioni di GenAI integrate nei nostri prodotti interni.
- Disegnare e implementare pipeline RAG scalabili, dalla data ingestion alla ricerca semantica (vector DB) fino alla generazione.
- Eseguire fine-tuning / adattamento di LLM su dati proprietari usando l’ecosistema Hugging Face (Transformers, Hub, Datasets, ecc.)
- Orchestrare applicazioni LLM usando framework come LangChain, LlamaIndex, Haystack o equivalenti per costruire agenti, tool-augmented chat, workflow di retrieval avanzati.
- Scegliere e integrare vector database moderni (es. Pinecone, Weaviate, Qdrant, pgvector, Chroma, Milvus, ecc.) in architetture di prodotto enterprise.
- Esporre API pulite e robuste, integrate con i moduli AI.
- Lavorare a stretto contatto con UX/UI, product e business per creare prodotti interni che siano davvero usabili e ad alto impatto.
- Scrivere documentazione tecnica chiara (architetture, decision log, API, playbook MLOps).
- Contribuire alla definizione di best practice AI & MLOps: tracking esperimenti, model registry, monitoring (es. MLflow o strumenti analoghi).
Tech & framework che ci interessa tu conosca (o sia pronto/a a padroneggiare)
Lato AI / LLM / RAG
- Ecosistema Hugging Face (Transformers, Hub, Datasets, Evaluate, ecc.).
- Framework LLM: LangChain, LlamaIndex, Haystack, idealmente conoscenza comparativa dei loro punti di forza (agent pipelines, retrieval-centric, search/chatbot, ecc.).
- Concetti di agents, tool calling, prompt orchestration.
- Integrazione con LLM proprietari e open-source (es. GPT-like, LLaMA-family, ecc.).
Lato dati / RAG infra
- Vector DB: esperienza pratica con almeno uno tra Pinecone, Weaviate, Qdrant, Milvus/Zilliz, Chroma, pgvector o similari, consapevolezza di pro/contro in termini di scalabilità, costi, hybrid search e manutenzione.
- Esperienza con pipeline di ingestion e indicizzazione (document loaders, chunking, metadata, schema design).
Lato MLOps / software engineering
- CI/CD, containerizzazione (Docker, idealmente Kubernetes o orchestratori equivalenti).
- Esperienza con tool di MLOps / GenAI lifecycle (es. MLflow, Weights & Biases o analoghi).
- Buona conoscenza di almeno un cloud (AWS/Azure/GCP).
Cosa chiediamo (requisiti)
- +7 anni di esperienza nello sviluppo software backend (prevalentemente Python).
- +5 anni di esperienza in progetti AI/ML industriali, con almeno alcuni casi in produzione.
- Esperienza pratica con LLM, RAG e fine-tuning (non solo PoC da notebook).
- Capacità di pensare in modo architetturale: scalabilità, costi, latency, maintainability, sicurezza.
- Mentalità ibrida consulenziale + tecnica: sai parlare con stakeholder non tecnici, tradurre esigenze business in soluzioni, discutere trade-off.
- Eccellenti capacità di comunicazione e lavoro in team multidisciplinare.
- Attenzione alla user experience: l’AI deve essere percepita come utile, affidabile e semplice.
- Allineamento con i nostri valori: approccio etico, human-centric, focus su impatto reale.
- Disponibilità a lavorare tutti i giorni in presenza nel nostro ufficio in Piazza Diaz, Milano.
- Ruolo centrale nella definizione della nostra AI strategy interna e dei prodotti che costruiremo nei prossimi anni.
- Ambiente early-stage ma già con progetti concreti e clienti strutturati.
- Team piccolo, molto motivato, dove il tuo contributo conta davvero.
- Cultura che mette al centro le persone e la crescita professionale, con attenzione a etica, qualità del lavoro e sostenibilità.
Se ti riconosci in questo profilo e ti piace l’idea di costruire prodotti AI reali, non solo demo, lavorando fianco a fianco con il team in centro a Milano:
Invia il tuo CV + portfolio progetti (GitHub, repo, case study) direttamente qui su LinkedIn
Puoi anche aggiungere un breve testo in cui racconti:
- un progetto LLM/RAG di cui sei orgoglioso/a,
- che ruolo hai avuto,
- che scelte architetturali hai fatto e perché.
- Colloquio conoscitivo con il CEO
- Test tecnico e colloquio con CTO
- Ultimo colloquio con il team