Activez les alertes d’offres d’emploi par e-mail !

Architecte Senior Software - MLOps

GE Vernova

Montpellier

Sur place

EUR 60 000 - 80 000

Plein temps

Il y a 30+ jours

Résumé du poste

Une entreprise spécialisée en électrification recherche un Architecte Senior pour diriger la conception et la mise en œuvre des pratiques MLOps/Data Lake. Vous jouerez un rôle clé dans l'élaboration de la stratégie MLOps, en collaborant avec diverses équipes pour optimiser le cycle de vie des projets IA/ML. Une solide expérience en technologies Big Data et en cloud est requise.

Qualifications

  • Diplôme Bac+3 / 5 en informatique, technologies de l'information ou domaine connexe.
  • Expérience pratique avec des frameworks d'orchestration de flux de travail orientés données.
  • Expérience avec des plateformes cloud et leurs services en machine learning.

Responsabilités

  • Définir et piloter l'architecture et la stratégie MLOps / Data Lake.
  • Collaborer avec des équipes transversales pour traduire des besoins métier en spécifications techniques.
  • Apporter un leadership technique et un mentorat aux équipes de développement logiciel.

Connaissances

Expérience avec des frameworks d'orchestration
Connaissance des technologies Big Data
Maîtrise de Python
Compétences en communication
Capacité à travailler en autonomie

Formation

Diplôme Bac+3 / 5 en informatique

Outils

Docker
Kubernetes
AWS
Azure
Google Cloud
Description du poste

Job Description Summary

Nous recherchons un Architecte Senior expérimenté pour rejoindre notre activité innovante des Systèmes d'Électrification - Grid Solutions. Il/elle dirigera la conception, la mise en œuvre et le support de nos pratiques et outils MLOps / Data Lake, afin de soutenir les activités de R&D et d'exploitation en Machine Learning et Intelligence Artificielle.

Le candidat retenu jouera un rôle clé dans l'élaboration de notre stratégie MLOps visant à unifier et rationaliser le cycle de vie des activités IA / ML, afin d'améliorer la qualité et de réduire le time-to-market.

Roles et Responsabilités

  • Définir et piloter l'architecture, la stratégie et le plan de développement du MLOps / Data Lake.
  • Concevoir des solutions Data Lake / MLOps évolutives, sécurisées, fiables et à haute performance, répondant aux besoins métier.
  • Collaborer avec des équipes transversales et des parties prenantes métier pour comprendre les besoins et les traduire en spécifications techniques.
  • Diriger le développement et l'intégration des composants, en assurant un flux de données fluide et une accessibilité optimale. Mettre en œuvre les meilleures pratiques en matière de gouvernance des données, qualité des données et gestion des métadonnées.
  • Faciliter la communication et la collaboration entre les équipes IT corporate et les unités métiers pour faire avancer les initiatives autour des données.
  • Évaluer et recommander des technologies et outils afin de créer un écosystème unifié qui rationalise le cycle de développement IA / ML, tout en optimisant la performance et les coûts.
  • Apporter un leadership technique et un mentorat aux équipes de développement logiciel.
  • Garantir la conformité avec les réglementations sur la confidentialité et la sécurité des données à l'échelle mondiale.
  • Créer et maintenir une documentation complète de l'architecture des solutions, des spécifications de conception et des standards techniques, afin d'assurer le partage des connaissances, la compréhension des systèmes et la cohérence entre les équipes.
  • Surveiller et résoudre les problèmes liés aux systèmes de données de manière proactive.

Qualifications requises :

  • Diplôme de niveau Bac+3 / 5 en informatique, technologies de l'information ou domaine connexe.
  • Expérience pratique avec des frameworks d'orchestration de flux de travail orientés données (SageMaker, KubeFlow, MLFlow, Airflow, Argo, etc.).
  • Expérience avec des plateformes cloud comme AWS, Azure ou Google Cloud et leurs services en machine learning respectifs.
  • Expérience avec des technologies Big Data (ex. : Amazon Redshift, Databricks, Airflow).
  • Solide connaissance de la modélisation des données, des processus ETL et des techniques d'intégration de données.
  • Expérience confirmée en architecture logicielle ou ingénierie des données, avec un focus sur les solutions Data Lake.
  • Connaissances des pipelines CI / CD, des outils d'automatisation et des systèmes de gestion de versions comme Git.
  • Familiarité avec la containerisation et les outils d'orchestration (Docker, Kubernetes) ainsi que l'infrastructure code.
  • Expérience avec des frameworks et bibliothèques de machine learning tels que TensorFlow, PyTorch ou Scikit-learn.
  • Maîtrise de langages de programmation tels que Python, Java ou Scala.
  • Expérience avec des outils de traitement distribué des données : Map / Reduce, Hadoop, Hive, Spark, etc.
  • Habitude de la collaboration réussie entre les équipes corporate et les parties prenantes métier.
  • Excellentes compétences en résolution de problèmes, capacité à travailler de manière autonome et en équipe.
  • Excellentes compétences en communication, prise de décision et relations interpersonnelles ; forte organisation, autonomie.
  • Souhaité :
  • Certifications dans les technologies ou plateformes concernées.
  • Expérience dans les secteurs de l'énergie ou de l'IoT industriel.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.