Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Ingénieur Data & IA TAL/NLP (H/F)

France Travail

Palaiseau

Hybride

EUR 40 000 - 60 000

Plein temps

Il y a 2 jours
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise innovante dans le secteur de l'IA recherche un Ingénieur Data & IA TAL/NLP, spécialisé en modèles de langage et systèmes d'inférence. Le poste est basé à Palaiseau avec un contrat CDI et la possibilité de télétravail. Le candidat idéal doit avoir 2 à 5 ans d'expérience dans le domaine et maîtriser des outils comme Python, PyTorch et HuggingFace. Vous travaillerez sur des projets d'avant-garde, optimisant des modèles et développant des pipelines robustes.

Prestations

Ordinateur portable
Complémentaire santé
Indemnité transports
Télétravail possible

Qualifications

  • 2-5 ans d’expérience en NLP/LLM ou IA appliquée.
  • Excellente maîtrise de Python, PyTorch et HuggingFace Transformers.
  • Connaissances pratiques en architecture de déploiement IA (Docker, APIs, scaling).

Responsabilités

  • Concevoir, entraîner, fine-tuner et optimiser des modèles de langage.
  • Implémenter et améliorer des pipelines RAG de nouvelle génération.
  • Développer des protocoles d’évaluation rigoureux.

Connaissances

Python
PyTorch
HuggingFace Transformers
NLP
Machine Learning
LangChain
Docker

Formation

Master/Ingénieur/PhD en machine learning, NLP, informatique

Outils

TensorFlow
Description du poste
Offre n° 201QCFP - Ingénieur Data & IA TAL/NLP (H/F)

Nous recrutons un Ingénieur Data & IA TAL/NLP, spécialisé dans les modèles de langage, les systèmes d'inférence à grande échelle et les frameworks agentiques modernes, pour l’École polytechnique (Palaiseau, 91). Type de contrat : CDI. Lieu : 1 à 2 jours par semaine sur site, télétravail le reste du temps. Le poste vise des candidats avec 1 à 5 ans d'expérience en projets NLP, architecture cloud/on‑premise, ou un stage NLP minimum, et exige une maîtrise des systèmes LLM, RAG, embeddings et des frameworks agentiques.

Responsabilités
  • Concevoir, entraîner, fine‑tuner et optimiser des modèles de langage (LLM open‑source ou propriétaires)
  • Implémenter, benchmarker et améliorer des pipelines RAG de nouvelle génération : retrieval, filtering, ranking, evaluation quantitative/qualitative des performances, robustesse multilingue (français / anglais)
  • Évaluer et optimiser des modèles d'embeddings (BGE, E5, Qwen Embedding, GritLM, SFR‑Embedding, etc.) ; comparer les performances sur nos cas d’usage internes ; sélectionner et ajuster les modèles pour différents contextes (dense, hybride, reranking)
  • Construire des systèmes agentiques via LangChain / LangGraph, LlamaIndex, OpenAI Agents SDK, ou autres frameworks avancés d’orchestration LLM
  • Concevoir des pipelines robustes pour la collecte, la génération et le nettoyage de données complexes
  • Mettre en place des stratégies d’optimisation d’inférence (quantization, distillation, pruning, batching, caching)
  • Développer des protocoles d’évaluation rigoureux (benchmarks, stress tests, LLM‑as‑a‑judge, datasets internes)
  • Collaborer étroitement avec les équipes engineering et produit pour intégrer vos solutions en production
Profil recherché / Qualifications
  • Master/Ingénieur/PhD en machine learning, NLP, informatique ou domaine associé
  • 2–5 + ans d’expérience en NLP/LLM ou IA appliquée (ou stage NLP minimum notamment pour les candidats juniors)
  • Excellente maîtrise de Python, PyTorch (ou TensorFlow) et HuggingFace Transformers
  • Expérience concrète dans la mise en œuvre de pipelines RAG complets et robustes, l’évaluation d’embedding models (BGE, Qwen, E5, etc.) et la comparaison de retrieveurs
  • Compétence confirmée avec des frameworks agentiques : LangChain, LangGraph, LlamaIndex, OpenAI Agents SDK, ou équivalents
  • Connaissance des modèles open‑source (Llama, Mistral, Qwen, Gemma) et des techniques de fine‑tuning (LoRA, QLoRA, adapters)
  • Connaissances pratiques en architecture de déploiement IA (Docker, APIs, scaling, monitoring)
  • Capacité d’analyse, autonomie, rigueur scientifique et communication claire
  • Adaptabilité et intérêt marqué pour les approches open‑source
Conditions de travail et avantages
  • Salaire selon expérience
  • Ordinateur portable
  • Complémentaire santé
  • Indemnité transports
  • Pas de déplacements requis
  • Possibilité de télétravail (semaine à 2 jours sur site)
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.