Activez les alertes d’offres d’emploi par e-mail !
Une institution académique en France recherche un doctorant pour développer des mécanismes de sécurité adaptés aux pipelines de Machine Learning. Les candidats doivent avoir un niveau Master et un intérêt marqué pour la MLOps et la sécurité des données. La thèse vise à intégrer la sécurité dès la conception dans les workflows ML. Le début de la thèse est prévu pour le 01/10/2026.
Université de Toulouse
Contexte
Les Machine Learning Operations (MLOps) sont devenues essentielles pour gérer le cycle de vie des modèles ML, en assurant livraison continue, automatisation et reproductibilité. Cependant, la sécurité n'a pas suivi la même évolution rapide. Les pratiques classiques de sécurité logicielle (analyses statiques, scans dynamiques, évaluations de vulnérabilités) sont bien établies, mais les pipelines ML présentent des risques spécifiques : attaques adversariales, empoisonnement de modèles, compromission des données d'entraînement, dérive des modèles, injection d'attaques, ainsi que des défis de confidentialité et de conformité (protection des données personnelles, PII).
Les pratiques MLOps actuelles manquent de mécanismes de sécurité intégrés, sont fragmentées et souvent incompatibles avec l'agilité promise. Cela a donné naissance au domaine émergent du DevSecMLOps, qui adapter les principes de DevSecOps aux systèmes ML pour concilier sécurité et agilité.
Le problème central est l'absence d'une approche unifiée et systématique pour intégrer la security-by-design dans l'ensemble des pipelines MLOps, incluant :
Sans cette approche, les systèmes d'IA risquent d'être performants mais fragiles, exposant les organisations à des failles critiques de sécurité et de confidentialité.
Objectifs
Mission du doctorant
Début de la thèse : 01/10/2026
Funding category: Autre financement public
ANR Financement d'Agences de financement de la recherche
Début de la thèse et conditions