
Activez les alertes d’offres d’emploi par e-mail !
Générez un CV personnalisé en quelques minutes
Décrochez un entretien et gagnez plus. En savoir plus
Une institution académique recherche un doctorant pour une thèse sur l'explicabilité des modèles de langage. Le candidat devra analyser les biais des modèles, développer des mécanismes d'explicabilité et évaluer la traçabilité des résultats. Une compétence en IA générative et un intérêt pour la linguistique computationnelle sont requis. La mise à disposition d'une plateforme de calcul est prévue. La rémunération est de 2200 euros. Les candidatures sont ouvertes jusqu'au 23 juin 2025.
Vers une exploration des grands modèles de langage avec raisonnement « Chain-of-Thought » : explicabilité et biais
C. Montacie (Sorbonne-Université/STIH), L. Devillers (Sorbonne-Université/CNRS-LISN)
Les grands modèles de langage (LLM) comme chatGPT, Gemini, Claude, LLaMA ou DeepSeek ont atteint des performances remarquables sur des tâches complexes de traitement des requêtes humains-IA. Parmi les techniques récentes ayant permis de renforcer leurs capacités figure le Chain-of-Thought prompting (CoT), ou requête par chaîne de pensée, qui décompose une question en étapes successives. Cette technique, popularisée par LangChain, s’apparente à une méthode de requêtes multiples visant à explorer plus profondément les connaissances internes d’un LLM. Elle favorise ainsi une meilleure structuration de l’interaction humain-IA et améliore l’explicabilité des réponses générées.
L’objectif est d’améliorer la traçabilité, la lisibilité et la fidélité explicative des réponses générées par les LLMs tout en conservant leurs performances. Cette recherche s’inscrit dans une perspective d’interprétabilité et d’ingénierie des requêtes, et débouchera sur des outils d’analyse, des protocoles de génération, et des modèles enrichis plus explicables.
Le sujet de thèse propose plusieurs enjeux de recherche. Un point critique est la traduction implicite des prompts en anglais, même lorsqu’ils sont initialement rédigés en français. Cette opération, souvent invisible à l’utilisateur, peut introduire des biais sémantiques, linguistiques et culturels (idiomatismes, reformulations, pertes de sens), des imprécisions ou des erreurs dans les résultats. D’autre part, les étapes intermédiaires de la chaîne de pensée sont rarement explicitées ou contrôlées, ce qui nuit à la transparence et à la traçabilité de l’inférence. En parallèle, l’introduction de tokens spéciaux dans les requêtes (par ex. <raisonnement>, <étape>, <conclusion>, <lang=fr>, etc.) ou dans les réponses du modèle peut servir à : structurer le raisonnement produit (début/fin, étapes intermédiaires, justification, choix de réponse), guider le comportement du modèle (forçage d’explication ou de format), améliorer l’explicabilité en facilitant l’extraction et la visualisation des parties-clés du traitement de la requête.
Le sujet a des contraintes en termes de capacités de calcul. Une plateforme de calcul sera à disposition de l’étudiant(e) pour mener ses expériences qu’il(elle) devra utiliser à bonne escient. Nous aurons soin de travailler sur la frugalité des algorithmes et de mesurer les coûts.
La thèse est un co‑encadrement financé par une bourse de Sorbonne Université entre STIH‑Sorbonne (Claude Montacie) et LISN‑CNRS (Laurence Devillers).
Sorbonne-Université-STIH et CNRS-LISN – école doctorale « Concepts et langages »
1er octobre 2025
à partir du 23 juin 2025
2200 euros
Prérequis : bases en IA générative et en informatique, intérêt pour la linguistique computationnelle.
Envoyez à cmontacie@gmail.com et à devil@lisn.fr : un CV et une lettre de motivation indiquant un professeur référent et un site web de travaux (Github) si vous en avez un.