CESI est une école d'ingénieurs qui allie promotion sociale et excellence académique. Environ 26 000 étudiants, 8 000 entreprises partenaires et 106 000 alumni témoignent de l'impact national et international de l'établissement.
Description du poste
Intégrer Linéact au sein de CESI pour un stage de recherche vous permettra de contribuer à des projets innovants, tout en approfondissant vos compétences dans un environnement à la pointe de la transformation numérique et de l'industrie 4.0.
Objectifs du stage
L’objectif du stage est double :
- Scientifique : concevoir et étudier des approches d'apprentissage profond multimodales pour la reconnaissance des émotions à partir de signaux audiovisuels en contexte réel, analyser les limites des modèles existants et proposer des améliorations méthodologiques (fusion, temporalité, robustesse).
- Expérimental et applicatif : développer un prototype expérimental, produire des analyses quantitatives et qualitatives des dynamiques émotionnelles et les valoriser scientifiquement (conférences, articles).
Missions
- Étude approfondie de l'état de l'art sur la reconnaissance audiovisuelle des émotions et la fusion multimodale.
- Conception, entraînement et évaluation de modèles d'apprentissage profond (réseaux convolutifs, modèles séquentiels, Transformer) pour la reconnaissance des émotions à partir de modalités audio et visuelle.
- Exploration de stratégies de fusion multimodale et d'analyse temporelle adaptées à des interactions naturelles.
- Implémentation d'un prototype logiciel de recherche permettant l'analyse émotionnelle des sessions, la visualisation et la synthèse des résultats (évolution temporelle, émotions dominantes, indicateurs d'engagement).
- Exploitation des données audiovisuelles dans un cadre strictement éthique (consentement éclairé, respect du RGPD).
- Analyse critique des résultats, comparaison des approches et discussion des limites.
Livrables et valorisation
- Un prototype expérimental de reconnaissance audiovisuelle des émotions.
- Un rapport de recherche détaillant les modèles proposés, les résultats et les perspectives.
- Une contribution à la valorisation scientifique du projet (article, communication ou pré‑publication).
Profil recherché
- Étudiant·e en Master 2 ou école d'ingénieurs (informatique, IA, data science ou domaine proche).
- Solides bases en apprentissage automatique et deep learning.
- Excellente maîtrise de Python et d'au moins une bibliothèque de deep learning (PyTorch ou TensorFlow).
- Intérêt marqué pour la recherche, l'IA affective et les interactions humain‑machine.
- Autonomie, esprit critique et capacité à s'inscrire dans un travail scientifique.
Compensation
Gratification à 15 % du plafond horaire de la Sécurité Sociale.
Date de début
Février 2026
Candidature
- Un Curriculum‑Vitae
- Une lettre de motivation pour le sujet
- Notes du parcours (Licence ou autre) et du master en cours
- Lettres de recommandation si disponibles
Références
- Yassine El Boudouri et Amine Bohi. « EmoNeXt : an Adapted ConvNeXt for Facial Emotion Recognition » – 25th IEEE International Workshop on Multimedia Signal Processing, 2023.
- Amine Bohi, Yassine El Boudouri et Imad Sfeir. « A novel deep learning approach for facial emotion recognition : application to detecting emotional responses in elderly individuals with Alzheimer's disease » – Neural Computing and Applications, 37.6, 2025.
- Varsha Devi, Amine Bohi et Pardeep Kumar. « AGCD‑Net : Attention Guided Context Debiasing Network for Emotion Recognition » – Image Analysis and Processing - ICIAP 2025, pp. 533‑545, 2026.
- Mohamed Ala Yahyaoui et al. « Multi‑face emotion detection for effective Human‑Robot Interaction » – arXiv preprint arXiv:2501.07213, 2025.
- Aafaf Ridouan, Amine Bohi et Youssef Mourchid. « Improving pain classification using spatio‑temporal deep learning approaches with facial expressions » – Seventeenth International Conference on Machine Vision (ICMV 2024), pp. 82‑89, 2025.
- Leila Ben Letaifa, Maria Ines Torres et Raquel Justo. « Adding dimensional features for emotion recognition on speech » – International Conference on Advanced Technologies for Signal and Image Processing, 2020.
- Leila Ben Letaifa et M. Inés Torres. « Perceptual Borderline for Balancing Multi‑Class Spontaneous Emotional Data » – IEEE Access, 9, 2021.
- Nesrine Farhat et al. « CG‑MER : A Card Game‑based Maultimodal dataset for Emotion Recognition » – 16th International Conference on Machine Vision, 2023.
- Leila Ben Letaifa, Amine Bohi et Rim Slama. « The CG‑MER dyadic multimodal dataset for spontaneous French conversations : annotation, analysis and assessment benchmark » – Journal on Multimodal User Interfaces, 19.4, 2025.
- Cristina Palmero et al. « Exploring emotion expression recognition in older adults interacting with a virtual coach » – IEEE Transactions on Affective Computing, 2025.