Activez les alertes d’offres d’emploi par e-mail !

IA & Cybersécurité : Vers des Workflows Agentiques Sécurisés

IRT SystemX

Palaiseau

Sur place

EUR 40 000 - 60 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Résumé du poste

Un institut de recherche technologique situé en Île-de-France recherche un stagiaire pour contribuer à des projets de recherche sur les vulnérabilités des workflows intégrant des modèles de langage. Les candidats doivent avoir un BAC +5 en IA ou sécurité numérique. Des compétences en cybersécurité, en programmation (Python et C++) et un bon niveau d'anglais sont souhaitables. Le poste est basé au sein d'une équipe multidisciplinaire.

Qualifications

  • Formation en IA ou en sécurité numérique.
  • Connaissances en détection et monitoring en cybersécurité.
  • Capacités à rédiger un article scientifique.

Responsabilités

  • Étudier les vulnérabilités des workflows agents intégrant des modèles de langage.
  • Concevoir une architecture sécurisée pour des workflows agents.
  • Évaluer la robustesse de l'architecture par des benchmarks.

Connaissances

Connaissances des LLMs et workflows agentiques
Connaissances en cybersécurité
Compétences en programmation Python
Compétences en programmation C++
Bon niveau d'anglais
Bonne connaissance Latex

Formation

BAC +5 / école d’ingénieur ou master d’université
Description du poste

Au sein de l’Institut de Recherche Technologique SystemX, situé au cœur du campus scientifique d’excellence mondiale de Paris-Saclay, vous prendrez une part active au développement d’un centre de recherche technologique de niveau international dans le domaine de l’ingénierie numérique des systèmes. Adossé aux meilleurs organismes de recherche français du domaine et constitué par des équipes mixtes d’industriels et d’académiques, ce centre a pour mission de générer de nouvelles connaissances et solutions technologiques en s’appuyant sur les percées de l’ingénierie numérique et de diffuser ses compétences dans tous les secteurs économiques.

Vous serez encadré par deux ingénieurs-chercheurs de l’IRT SystemX, l’un spécialisé en cybersécurité (sécurité numérique et réseaux) et l’autre en intelligence artificielle (IA).

Vous travaillerez au sein d’un des projets de recherche exploratoire de l’IRT SystemX en collaboration avec la Division of Mathematics and Science de l’Argonne National Laboratory (États-Unis).

Contexte

Avec l’essor rapide des systèmes d’IA générative et l’intégration croissante des modèles de langage à grande échelle (LLMs) dans des workflows à base d’agents (IA agentique), les questions de cybersécurité deviennent centrales. Ces workflows, qui orchestrent des interactions complexes avec des bases de données, des APIs et des sources externes comme le web, sont particulièrement exposés à des menaces variées : attaques par injection de prompts, jailbreaking, compromission des données…

Ces vulnérabilités soulèvent des enjeux critiques de confidentialité, intégrité, fiabilité et conformité réglementaire. La sécurisation de tels workflows nécessite donc de concevoir et d’expérimenter des architectures robustes, intégrant des mécanismes de détection, de prévention, de confinement et de traçabilité.

Objectifs du stage
  • Étudier les vulnérabilités liées aux workflows agentiques intégrant des modèles de langage à grande échelle (LLMs).
  • Concevoir et implémenter une architecture sécurisée adaptée à ces workflows.
  • Évaluer la robustesse de l’architecture proposée par des benchmarks sur des scénarios d’attaques représentatifs.
  • Au-delà du rapport de stage, contribuer à la rédaction d’un article scientifique sur les résultats obtenus.
Missions
  • Réaliser un état de l’art sur les attaques visant les LLMs (injection de prompts, jailbreaking, compromission de données, etc.) et sur les stratégies de défense existantes.
  • Participer à la conception et à l’implémentation concrète d’une architecture sécurisée pour les workflows agentiques.
  • Présenter et analyser les résultats d’un benchmark sur un cas d’usage représentatif.
  • Contribuer à la rédaction d’un article scientifique.
Références bibliographiques
  • J. Yi et al., Benchmarking and Defending against Indirect Prompt Injection Attacks on Large Language Models, 2025. [doi:10.1145/3690624.3709179]
  • Beurer-Kellner, L et al., Design Patterns for Securing LLM Agents against Prompt Injections, 2025 [ArXiv. https://arxiv.org/pdf/2506.08837]
  • N. Li et al., LLM Defenses Are Not Robust to Multi-Turn Human Jailbreaks Yet, 2024. [arXiv:2408.15221]
Profil et compétences

De formation BAC +5 / école d’ingénieur ou master d’université, dans les domaines de IA ou de la sécurité numérique.

Compétences souhaitées
  • Connaissances des LLMs et workflows agentiques (à base de LLMs),
  • Connaissances en cybersécurité (détection et monitoring, gestion des permissions, …etc.),
  • Compétences en programmation Python et C++,
  • Connaissances d’un frameworkde développement d’agents (LangChain, Google ADK, …),
  • Capacités d’expression à l’oral et à l’écrit en anglais.,
  • Bonne connaissance Latex.
Aptitudes personnelles
  • Appétence pour résoudre des problèmes transverses,
  • Bon relationnel,
  • Proactif et en mesure de collaborer (des personnes avec différents backgrounds),
  • Autonomie,
  • Curiosité,
  • Capacité de relever des défis et explorer des verrous scientifiques / techniques.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.