Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Offre de stage de recherche M2

Association pour la transition Bas Carbone (ABC)

Paris

Sur place

EUR 40 000 - 60 000

Plein temps

Il y a 19 jours

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une association de transition environnementale recherche un·e stagiaire pour intégrer des outils de causalité dans l’analyse des Bilans Carbone®. Vous collaborerez avec des chercheurs sur des projets innovants visant à modéliser et expliquer les émissions organisationnelles. Ce stage est approprié pour un étudiant·e en Master 2 avec de solides connaissances en probabilités et apprentissage automatique, et une sensibilité aux enjeux environnementaux. Le stage est à temps plein en Île-de-France.

Prestations

Tickets restaurant pris en charge à hauteur de 50 %
Organisation du travail sur 4 jours par semaine

Qualifications

  • Étudiant·e en Master 2 avec une curiosité scientifique et un goût pour la recherche appliquée.
  • Sensibilité aux enjeux environnementaux et à la transition bas carbone.
  • Capacité à produire un code clair, reproductible et documenté.

Responsabilités

  • Nettoyer et homogénéiser les bilans issus de la base nationale OCCF.
  • Construire des graphes causaux avec pyAgrum.
  • Développer des visualisations interactives et interprétables des graphes causaux.

Connaissances

Probabilités
Statistiques
Causalité
Apprentissage automatique
Modélisation des systèmes complexes

Formation

Étudiant·e en Master 2 (informatique, mathématiques appliquées, data science, IA)
Description du poste

Exploration causale et explicabilité des relations entre variables dans les Bilans Carbone® : vers une compréhension fine et vérifiable des émissions organisationnelles

Qui sommes-nous ?

Le Laboratoire d’Informatique de Paris 6 (LIP6 – Sorbonne Université) est une unité de recherche de référence en intelligence artificielle explicable et en modélisation probabiliste. En partenariat avec l’Association pour la Transition Bas Carbone (ABC), structure pionnière du Bilan Carbone® en France, nous développons des outils scientifiques et opérationnels pour accompagner les organisations dans leur transition bas carbone.

Contexte scientifique et opérationnel

Le Bilan Carbone® est une méthode de comptabilité des gaz à effet de serre (GES) développée en France depuis 2004 pour aider les organisations à évaluer et à réduire leurs émissions. Chaque source d’émission repose sur une donnée d’activité (DA) et un facteur d’émission (FE), dont la précision et la disponibilité dépendent du contexte sectoriel et de la qualité des données collectées. Cette variabilité entraîne une forte hétérogénéité dans la qualité des bilans réalisés. Pour y remédier, l’Association pour la transition Bas Carbone (ABC) a constitué une base de données nationale (OCCF) regroupant des Bilans Carbone® et Bilans GES réglementaires. Cette base constitue une ressource unique pour étudier la structure, la cohérence et les déterminants des émissions des organisations françaises. Des travaux exploratoires menés au LIP6 (Sorbonne Université) ont permis de produire des statistiques descriptives et d’identifier des dépendances statistiques entre variables. Ce stage propose d’approfondir cette analyse en mobilisant les approches de causalité, d’explicabilité et de raisonnement bayésien afin de mieux comprendre les mécanismes sous-jacents à la production et à la variabilité des Bilans Carbone®.

Cadre théorique
Causalité et inférence structurelle

Les approches causales, initiées par Judea Pearl et développées dans la lignée de la « causal revolution » (Causality : Models, Reasoning, and Inference, 2000), visent à dépasser la simple corrélation pour identifier des relations de cause à effet. Elles reposent sur la modélisation des dépendances via des graphes causaux dirigés (DAGs) et sur 1 des opérateurs d’intervention (do‑calculus), permettant de répondre à des questions du type : que se passerait‑il si une variable changeait? Dans le contexte du Bilan Carbone®, cela permet d’étudier l’effet causal du secteur d’activité, de la taille ou du périmètre organisationnel sur la structure et la répartition des émissions.

Apprentissage de structure causale

L’apprentissage de structure causale vise à inférer la forme du graphe causal directement à partir des données. Deux grandes familles d’approches coexistent :

  • Les méthodes basées sur des tests d’indépendance conditionnelle (comme PC, IC, SGS), qui s’appuient sur la détection d’indépendances statistiques entre variables pour reconstruire la structure du graphe.
  • Les méthodes basées sur le score (comme GES, NOTEARS), qui cherchent la structure la plus probable en optimisant un critère (AIC, BIC, score bayésien, etc.) tout en imposant la contrainte d’acyclicité.

Ces algorithmes permettent de révéler les dépendances structurelles entre postes d’émission, secteurs d’activité, intensité énergétique et émissions totales. Ils peuvent ensuite être validés ou ajustés par des experts métier, garantissant un équilibre entre rigueur statistique et interprétation domain‑specific.

Réseaux bayésiens

Les réseaux bayésiens, formalisés par Pearl (1985), Lauritzen & Spiegelhalter (1988), offrent un cadre probabiliste pour représenter les dépendances conditionnelles entre variables. Ils permettent la prédiction, la simulation, mais aussi l’inférence causale lorsqu’ils sont combinés avec des hypothèses structurelles. Appliqués à la base OCCF, ces réseaux peuvent révéler les interactions latentes entre les postes d’émission, les catégories d’activité et les variables organisationnelles. Ils servent également de base à la simulation de bilans hypothétiques et à la détection d’anomalies.

Explicabilité et intelligence artificielle interprétable

L’explicabilité (Explainable Artificial Intelligence, ou XAI) est devenue une exigence majeure pour les modèles d’apprentissage automatique utilisés dans des domaines sensibles ou décisionnels. Les méthodes comme LIME (Local Interpretable Model‑agnostic Explanations, Ribeiro et al., 2016) ou SHAP(SHapley Additive exPlanations, Lundberg & Lee, 2017) permettent de visualiser et d’interpréter la contribution des variables à la décision d’un modèle. Dans le cadre du Bilan Carbone®, ces approches permettront d’expliquer pourquoi un modèle estime une incohérence dans un bilan ou attribue un certain poids à une catégorie d’émission renforçant la transparence et la vérifiabilité des analyses.

Objectifs du stage

L’objectif principal du stage est d’intégrer les outils de causalité explicable dans l’analyse des Bilans Carbone® afin de :

  1. Identifier les relations causales entre variables structurantes (secteur, taille, postes d’émission, méthodologie, etc.).
  2. Développer des modèles explicables permettant d’évaluer la cohérence interne et la qualité des bilans.
  3. Mettre en œuvre des algorithmes d’apprentissage de structure causale pour cartographier les dépendances entre variables.
  4. Proposer des visualisations et scores de qualité interprétables exploitables par l’ABC et les bureaux d’études carbone.
Questions de recherche
  • Quelles variables exercent une influence causale sur la structure et le volume des émissions ?
  • Comment distinguer corrélation et causalité dans les relations entre postes d’émission ?
  • Quels algorithmes d’apprentissage de structure sont les plus adaptés à des données environnementales partiellement observées ?
  • Comment rendre les modèles de vérification explicables pour des utilisateurs non spécialistes ?
  • Peut‑on définir un score explicable de qualité pour les bilans carbone, basé sur la cohérence causale des données ?
Vos missions

Sous la supervision d’un chercheur en apprentissage causal et d’un référent métier de l’ABC, vous serez amené·e à :

  1. Préparation et exploration des données :
    • Nettoyer et homogénéiser les bilans issus de la base nationale OCCF.
    • Sélectionner des sous‑ensembles cohérents par secteur et taille d’organisation. Réaliser des analyses descriptives et identifier les variables clés.
  2. Apprentissage causal et inférence structurelle :
    • Construire des graphes causaux avec pyAgrum.
    • Mettre en œuvre des algorithmes d’apprentissage de structure (PC, GES, FCI, NOTEARS).
    • Valider les résultats par tests d’indépendance et expertise métier.
    • Simuler des interventions et analyser des scénarios contre‑factuels.
  3. Explicabilité et visualisation :
    • Appliquer des méthodes d’explicabilité (SHAP, LIME, PDP, Feature Importance).
    • Développer des visualisations interactives et interprétables des graphes causaux.
    • Documenter la sensibilité des résultats aux hypothèses de modélisation.
  4. Score de qualité explicable :
    • Concevoir un score composite (cohérence, complétude, plausibilité).
    • Implémenter ce score dans un notebook Python reproductible.
    • Tester et valider sur un échantillon de bilans réels.
Résultats attendus
  • Un modèle causal interprétable décrivant les interactions majeures entre variables du Bilan Carbone®.
  • Un score explicable de qualité pour les bilans entrants dans la base OCCF.
  • Des graphes causaux validés et commentés, offrant une lecture intuitive des dépendances environnementales.
  • Des recommandations méthodologiques pour l’ABC.
  • Une valorisation scientifique (article court ou communication).
Avantages
  • Tickets restaurant pris en charge à hauteur de 50 % par l’association.
  • Temps plein (32 h/semaine – selon l’accord de performance collective), soit une organisation du travail sur 4 jours par semaine.
  • Processus de candidature : si vous souhaitez contribuer à une recherche innovante au service de la transition bas carbone, nous serions ravi·e·s de vous accueillir.
Bibliographie sélective
  • Pearl, J. (2000). Causality : Models, Reasoning and Inference. Cambridge University Press.
  • Pearl, J., & Mackenzie, D. (2018). The Book of Why : The New Science of Cause and Effect. Basic Books.
  • Spirtes, P., Glymour, C., & Scheines, R. (2000). Causation, Prediction, and Search. MIT Press.
  • Lauritzen, S. L., & Spiegelhalter, D. J. (1988). Local computations with probabilities on graphical structures and their application to expert systems. Journal of the Royal Statistical Society : Series B, 50(2), 157–224.
  • Peters, J., Janzing, D., & Schölkopf, B. (2017). Elements of Causal Inference : Foundations and Learning Algorithms. MIT Press.
  • Glymour, C., Zhang, K., & Spirtes, P. (2019). Review of Causal Discovery Methods Based on Graphical Models. Frontiers in Genetics, 10, 524.
  • Zheng, X., Aragam, B., Ravikumar, P., & Xing, E. P. (2018). DAGs with NO TEARS : Continuous Optimization for Structure Learning. Advances in Neural Information Processing Systems (NeurIPS).
  • Doshi‑Velez, F., & Kim, B. (2017). Towards a Rigorous Science of Interpretable Machine Learning. arXiv :1702.08608.
  • Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why Should I Trust You?” : Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD.
  • Lundberg, S. M., & Lee, S.-I. (2017). A Unified Approach to Interpreting Model Predictions. Advances in Neural Information Processing Systems (NIPS).
Qualifications
  • Étudiant·e en Master 2 (informatique, mathématiques appliquées, data science, IA).
  • Curiosité scientifique et goût pour la recherche appliquée.
  • Sensibilité aux enjeux environnementaux et à la transition bas carbone.
  • Solides connaissances en probabilités, statistiques, causalité et apprentissage automatique.
  • Intérêt marqué pour la modélisation des systèmes complexes, l’environnement et l’explicabilité de l’IA.
  • Capacité à produire un code clair, reproductible et documenté.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.