Activez les alertes d’offres d’emploi par e-mail !

Lead Développeur Python - Spécialiste IA / RAG & MLOps (IT) / Freelance

5COM Consulting

Courbevoie

Hybride

EUR 60 000 - 90 000

Plein temps

Il y a 24 jours

Résumé du poste

Une entreprise de conseil recherche un Lead Développeur Python spécialisé en IA pour une mission hybride à Courbevoie. Vous serez responsable de l'industrialisation des solutions Data Science et de la mise en production des systèmes RAG. Si vous possédez une expertise avérée en Python et en cloud computing, rejoignez une équipe tournée vers l'innovation et le passage à l'échelle.

Qualifications

  • Expert Python avec 5 à 10 ans d'expérience.
  • Expérience en RAG/LLM en production requise.
  • Connaissances en cloud computing (Azure/AWS/GCP) nécessaires.

Responsabilités

  • Industrialisation des développements IA/Data Science.
  • Mise en place de pipelines de chunking et d'indexation.
  • Implémentation de métriques de monitoring pour les modèles.

Connaissances

Python
RAG
LLM
cloud computing
DevOps
MLOps
leadership technique

Formation

Expérience de 5-10 ans en développement Python

Outils

Docker
Kubernetes
CI/CD
Terraform

Description du poste

Lead Développeur Python - Spécialiste IA / RAG & MLOpsCette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA / RAG en production et maîtrisant les enjeux de passage à l'échelle. MissionNous recherchons un Lead Développeur Python pour industrialiser les développements IA / Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM. ContexteLes Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principalesIndustrialisation des systèmes RAG / LLM : Automatiser le processing de documents volumineux (ex : PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure / AWS / GCP) Containerisation avec Docker / Kubernetes Mise en place de CI / CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG / LLM en production Cloud computing (Azure / AWS / GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI / CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement techniqueStack : Python, FastAPI, SQLAlchemy, Pydantic IA / ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret"Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. ModalitésDurée : 6-12 mois (renouvelable) Format : Freelance / Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil candidat : Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG / LLM en production Cloud computing (Azure / AWS / GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI / CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement techniqueStack : Python, FastAPI, SQLAlchemy, Pydantic IA / ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review

Créer une alerte emploi pour cette recherche

Mlops • La Défense, Île-de-France, France

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.