
Activez les alertes d’offres d’emploi par e-mail !
Une entreprise de télécommunications recherche un(e) étudiant(e) en ingénierie ou master spécialisé(e) en IA pour travailler sur des questions de sécurité liées à l'IA. Vous serez impliqué(e) dans l'évaluation et le développement de techniques pour renforcer la sécurité des applications d'IA dans l'entreprise. Les candidats doivent avoir des connaissances en NLP et en applications de Chatbot, ainsi qu'une maîtrise de l'anglais.
Dans le cadre de différents comités IA éthique et responsable d’Orange France, nous mettons en œuvre et appliquons des procédés pour s’assurer que les applications d’IA à Orange respectent les régulations sur l’IA, sont conformes à la charte éthique et responsable d’Orange et respecte les exigences de sécurité d’Orange France.
Les tests effectués par les fournisseurs de modèles d’IA Générative (Open AI, Google, Anthropic,…) montrent que ces modèles demeurent très sensibles à de nouvelles formes d’attaques: «les injections de prompt. Des campagnes de test menées par des Red Teams (équipes externes payés pour mener des attaques) à la demande de ces fournisseurs. Le taux de succès de ces attaques menés par des spécialistes ont des seuils très élevés – 50% au bout d’une dizaine d’interaction -.
L’objectif serait:
Orange déploie un nombre important de cas d’applications (plusieurs centaines) autour de l’IA Générative avec des agents conversationnels ou des architecture RAG; d’où la nécessité d’en savoir plus ces techniques d’injection de prompt.
Vous êtes en école d’ingénieur ou master dans le domaine de l’informatique avec une spécialisation en IA.
Vous êtes formés sur les traitements NLP (langage naturel), les applications de Chatbot
Vous maîtrisez les différentes techniques d’apprentissage
Vous connaissez les méthodes d'évaluation de fiabilité classique des modèles d'apprentissage
Vous êtes curieux et proactif, avec une capacité d'analyse et esprit d'équipe.
Anglais