Enable job alerts via email!

Développeur principal d’opérations d’apprentissage automatique – Optimisation d’inférence/Princ[...]

Cerence

Montreal

Hybrid

CAD 80,000 - 120,000

Full time

30+ days ago

Boost your interview chances

Create a job specific, tailored resume for higher success rate.

Job summary

Une entreprise innovante recherche un Développeur senior d’opérations d'apprentissage automatique pour rejoindre une équipe dynamique. Ce rôle clé vous permettra de concevoir et d'optimiser des pipelines d’inférence IA/ML, tout en collaborant avec des experts pour intégrer des solutions avancées. Vous serez au cœur de l'innovation technologique, travaillant sur des projets qui redéfinissent la mobilité connectée. Si vous avez une passion pour l'IA et que vous souhaitez avoir un impact significatif, cette opportunité est faite pour vous.

Benefits

Environnement de travail collaboratif
Opportunités de développement professionnel
Salaire compétitif
Avantages sociaux complets
Technologies de pointe

Qualifications

  • Plus de 10 ans d'expérience en ingénierie logicielle, avec un accent sur l’IA/ML.
  • Expertise dans les techniques d'optimisation des modèles IA, y compris la quantification.

Responsibilities

  • Concevoir et optimiser des pipelines d’inférence IA/ML pour la performance et la rentabilité.
  • Collaborer avec des équipes transversales pour intégrer des solutions d’inférence.

Skills

Ingénierie logicielle
IA/ML
Python
C++
Rust
Résolution de problèmes
Communication

Education

Master en informatique
Doctorat en apprentissage automatique

Tools

TensorFlow
PyTorch
ONNX
Kubernetes
Docker
CI/CD

Job description

A Moving Experience.

Description de poste

Avez-vous une passion pour repousser les limites de l'innovation ? Êtes-vous enthousiaste à l'idée du potentiel de l'IA pour améliorer l'expérience humaine ? Alors rejoignez-nous dans cette aventure !

Qui est Cerence AI?

Cerence AI est le leader mondial de l'IA pour le transport, spécialisé dans la création de compagnons alimentés par l'IA et la voix pour les voitures, les deux-roues et plus encore, permettant aux utilisateurs de se concentrer sur l'essentiel. Avec plus de 500 millions de voitures équipées de la technologie Cerence AI, nous collaborons avec des constructeurs automobiles de renom tels que Volkswagen, Mercedes, Audi, Toyota, et bien d'autres, des fournisseurs de mobilité et des entreprises technologiques pour offrir des expériences intuitives et intégrées, créant des trajets plus sûrs, plus connectés et plus agréables pour les conducteurs et les passagers.

Notre force motrice

Notre équipe, engagée à repousser les limites de l'innovation en IA, opère à l'échelle mondiale avec un siège social à Burlington, Massachusetts, USA, et 16 bureaux répartis en Europe, en Asie, et en Amérique du Nord. Nous réunissons des talents divers avec l'objectif commun de faire progresser la prochaine génération d'expériences utilisateur pour le transport. Notre culture est axée sur le client, collaborative, stimulante et conviviale, offrant des opportunités constantes d'apprentissage et de développement pour accompagner l'évolution de votre carrière.

Vous aspirez à avoir un impact significatif dans une industrie dynamique au sein d'une équipe internationale performante ? Nous recherchons un(e) Développeur senior d’opérations d'apprentissage automatique, prêt(e) à façonner l'avenir de la mobilité à nos côtés !

Votre impact :

  • Concevoir, développer et mettre en œuvre des stratégies pour optimiser les pipelines d’inférence IA/ML en termes de performance, d’évolutivité et de rentabilité.

  • Collaborer étroitement avec d'autres ingénieurs principaux et seniors de l'équipe, en favorisant une culture de partage des connaissances et de résolution commune des problèmes.

  • Travailler avec des équipes transversales, notamment en MLOps, science des données et ingénierie logicielle, pour intégrer des solutions d’inférence optimisées dans les environnements de production.

  • Innover dans les domaines de l'accélération matérielle, de la quantification, de la compression des modèles et des techniques d’inférence distribuée.

  • Se tenir au courant des cadres d’hébergement LLM et de leur configuration au niveau des machines et des clusters (par ex. vLLM, TensorRT, KubeFlow).

  • Optimiser les systèmes à l’aide de techniques telles que le regroupement, la mise en cache et le décodage spéculatif.

  • Effectuer le réglage des performances, des benchmarks et des profils pour les systèmes d'inférence, avec expertise en gestion de mémoire, threading, concurrence et optimisation GPU.

  • Gérer les dépôts de modèles, la livraison des artefacts et les infrastructures associées.

  • Développer et maintenir des mécanismes de journalisation pour les diagnostics et la recherche.

Qualifications requises :

  • Plus de 10 ans d'expérience en ingénierie logicielle, avec un accent sur l’IA/ML.

  • Expertise approfondie dans les techniques d'optimisation des modèles IA, y compris la quantification, l'élagage, la distillation des connaissances et la conception de modèles adaptés au matériel.

  • Maîtrise des langages de programmation tels que Python, C++ ou Rust.

  • Expérience avec des cadres IA/ML tels que TensorFlow, PyTorch et ONNX.

  • Expérience pratique avec l’accélération GPU/TPU et le déploiement dans des environnements cloud et edge.

  • Forte mentalité DevOps avec expérience en Kubernetes, conteneurs, déploiements, tableaux de bord, haute disponibilité, mise à l'échelle automatique, métriques et journaux.

  • Solides compétences en résolution de problèmes et capacité à prendre des décisions basées sur des données.

  • Excellentes compétences en communication et capacité à expliquer des concepts techniques complexes à un public diversifié.

Qualifications préférées :

  • Expérience avec Kubernetes, Docker et des pipelines CI/CD pour les charges de travail IA/ML.

  • Connaissance des pratiques et outils MLOps, y compris le versioning et la surveillance des modèles.

  • Familiarité avec l'optimisation des moteurs d'inférence comme vLLM et les techniques telles que les adaptateurs LoRA.

  • Compréhension de l'architecture et de l'optimisation des LLM.

  • Contributions à des projets open-source IA/ML.

  • Connaissance des applications dans les industries automobile ou des transports.

  • Master ou doctorat en informatique, apprentissage automatique ou domaine connexe.

Ce que nous offrons :

  • L’opportunité de rejoindre une toute nouvelle équipe axée sur les avancées IA/ML de pointe.

  • Un environnement de travail collaboratif et inclusif avec un fort accent sur l'innovation.

  • Un salaire compétitif et un ensemble complet d'avantages sociaux.

  • Des opportunités de développement professionnel et de progression de carrière.

  • La possibilité de travailler avec des technologies de pointe et de générer un impact réel.

Lieu :
Ce poste est basé à Montréal, avec des opportunités pour des arrangements de travail hybrides. Les candidats à distance basés aux États-Unis ou au Canada ayant des profils pertinents sont invités à postuler.

Rejoignez-nous :
Si vous êtes passionné par l'IA/ML et désireux de collaborer sur des projets transformateurs en optimisation d'inférence, nous voulons vous entendre. Postulez maintenant et devenez une partie du voyage de Cerence AI pour redéfinir la mobilité connectée !

Get your free, confidential resume review.
or drag and drop a PDF, DOC, DOCX, ODT, or PAGES file up to 5MB.