Votre rôle se décline en 4 missions.
Conception et optimisation des prompts IA :
- Collaborer avec les équipes métier pour identifier les besoins spécifiques et aligner les modèles de langage sur les exigences business,
- Développer, tester et affiner les prompts pour améliorer la performance et la pertinence des modèles IA (LLMs) sur GCP et Azure,
- S'assurer de l'efficience des prompts en matière de coûts et de consommation énergétique (GreenIT / FinOps), en suivant les meilleures pratiques et innovations,
- Intégrer et adapter les prompts pour des cas d'utilisation variés, qu'ils soient liés à la génération de texte, NLP, ou l'analyse conversationnelle.
2. Exploitation des modèles de langage et intégration IA :
- Contribuer à la transformation des interactions IA avec les utilisateurs via l'optimisation des prompts, maximisant ainsi l'efficacité des use cases métiers,
- Créer et maintenir des applications spécifiques basées sur des modèles LLMs, en utilisant des outils open-source comme Flowise, N8N, Langfuse,
- Participer à la maintenance et l'évolution des modèles de langage en fonction des nouvelles approches et besoins métiers,
- Mettre en oeuvre des solutions pour interconnecter les résultats des prompts avec d'autres systèmes applicatifs, favorisant la diffusion des insights obtenus.
3. Automatisation et gestion des workflows de prompts :
- Orchestrer l'automatisation des tests et la gestion des workflows de prompts avec des outils DevOps (GitLab CI, Terraform, Bash),
- Développer et déployer des pipelines automatisés pour la génération et l'évaluation des prompts afin de garantir une efficacité maximale,
- Implémenter des solutions de monitoring en temps réel pour suivre et ajuster la performance des prompts en production,
- Optimiser les processus d'orchestration des prompts grâce à des outils spécialisés, améliorant la vitesse et la précision des prédictions des modèles IA.
4. Veille technologique et innovation IA :
- Participer activement à l'innovation en IA / LLMs, en explorant de nouvelles techniques de prompt engineering,
- Mettre en oeuvre des POC sur les dernières évolutions en prompt tuning et intégration IA à grande échelle,
- Partager les avancées technologiques internes sur GCP et Azure, cherchant à améliorer le socle IA de la Data Factory,
- Participer à l'amélioration continue par l'application de procédures novatrices autour des prompts, redéfinissant leurs usages et potentiels.
Expérience requise :
- Minimum 2 ans dans le domaine de l'ingénierie IA, avec une spécialisation en modèles de langage et prompt design.
- Diplôme requis : Bac +5 en école d'ingénieur ou université, avec une spécialisation en Intelligence Artificielle ou traitement automatique du langage naturel.
Compétences requises :
- Architecture Cloud : Maîtrise des environnements GCP (Vertex AI, Cloud Functions) et Azure (ML Studio, Functions). Certification GCP ou Azure est un avantage,
- Conception de Prompt : Expérience dans l'élaboration et l'optimisation de prompts pour LLMs,
- Langages et IA : Excellente maîtrise de Python, expérience avec les frameworks NLPS (SpaCy, NLTK), et une familiarité avec TensorFlow ou PyTorch,
- Intégration IA / LLM : Expertise avec des outils comme Flowise, N8N, Langfuse pour faciliter la mise en oeuvre des prompts dans des contextes métier,
- Monitoring & Orchestration : Compétence avec des outils de supervision et gestion des workflows
- Méthodologie Agile : Expérience confirmée en méthodologies agiles (Scrum, rétrospective régulière).
Soft Skills attendues :
- Capacité d'écoute et de compréhension des besoins métier complexes,
- Aptitude à collaborer de manière dynamique avec des équipes transverses,
- Rigueur, organisation, et passion pour l'innovation,
- Aptitude à proposer des solutions IA adaptées et efficaces,
- Enthousiasme pour la formation et la diffusion de nouvelles idées au sein des équipes internes.
Technologies maîtrisées souhaitables :
- GCP, Azure, Terraform, Python, Vertex AI
- Outils IA : Transformers, TensorFlow, Keras, PyTorch, Flowise, LangChain, Langfuse
- Outils de monitoring et intégration continue : Opcon, GitLab CI.