
Attiva gli avvisi di lavoro via e-mail!
Genera un CV personalizzato in pochi minuti
Ottieni un colloquio e una retribuzione più elevata. Scopri di più
Un'importante azienda tecnologica è alla ricerca di un ingegnere software AI esperto in Machine Learning e AI Generativa. La figura dovrà occuparsi della gestione dei processi MLOps, integrazione dei modelli ML in infrastrutture cloud e collaborare con team per offrire soluzioni scalabili. Sono richieste competenze avanzate in Python, Docker e Kubernetes. Posizione on site a Roma.
La risorsa verrà inserita su importante progetto in ambito cyber security e cyber intelligence.
Linguaggi e Framework: Python, FastAPI, SQLAlchemy, Alembic, Gunicorn, Uvicorn, PyTorch, Transformers, Sentence-Transformers, scikit-learn, spaCy, LangChain, LangChain-Community, LangChain-Ollama, Hugging Face Hub, Faiss (vector similarity search), NumPy, SciPy, pandas, Joblib, Torch CUDA stack (nvidia-cuda, cudnn, triton), Rich, Loguru, Typer (CLI e logging avanzato), FastAPI-Healthz, SQLModel, Pydantic, Pydantic-Settings, Requests, HTTPX, Aiohttp (integrazioni e API async), SpaCy (NLP: NER, POS tagging, dependency parsing, embeddings)
MLOps & DevOps: Docker, Kubernetes, Terraform, CloudFormation, Kubeflow, CI/CD pipelines, logging distribuito, monitoraggio con Prometheus, Gestione modelli in produzione (deployment, retraining, audit), PostgreSQL, integrazione con ORM e gestione migrazioni con Alembic
Cloud e AI Generativa: Integrazione con LLM tramite LangChain + Ollama, esperienza su Hugging Face, OpenAI e modelli Sentence Transformers, vector database con FAISS CPU, utilizzo di Transformers per embedding e text generation
on site 5/5
Roma