Activez les alertes d’offres d’emploi par e-mail !

Data Engineer IA H / F

Talent Pool

Vanves

Sur place

EUR 50 000 - 70 000

Plein temps

Il y a 15 jours

Résumé du poste

Une entreprise innovante dans le secteur de la technologie recherche un spécialiste DATA et IA. Vous serez responsable de la construction de la Data Factory, de l'alimentation des flux de données sous GCP et Azure, et de l'intégration de solutions IA. Une solide expérience en Python, SQL, ainsi qu'une expertise sur les environnements GCP / Azure sont attendues. Ce poste exige une approche rigoureuse et innovante dans un environnement dynamique.

Qualifications

  • Minimum 2 ans d'expérience sur un poste DATA et IA.
  • Maîtrise des environnements GCP et Azure.
  • Excellente maîtrise de Python (POO) et SQL.

Responsabilités

  • Construire et alimenter la Data Factory.
  • Développer les flux d'alimentation de la Data Factory sous GCP et Azure.
  • Maintenir les modèles de Machine Learning existants.

Connaissances

GCP
Azure
Python
SQL
Machine Learning
DevOps

Formation

Diplôme Bac +5 en école d'ingénieur / informatique

Outils

TensorFlow
Keras
Airflow
Terraform
Description du poste

Votre rôle se décline en 4 missions. Construction et alimentation de la Data Factory : - Travailler avec les métiers pour bien comprendre les besoins et imaginer l'architecture correspondante, - Proposer et développer les différents flux d'alimentation de la Data Factory sous GCP et Azure (real time, batch, API), - Concevoir et construire les pipelines de données en s'assurant d'une qualité de données optimale, Exploitation des données de la Data Factory et intégration des outils IA - Contribuer à la transformation des Data de l'entreprise, à la définition et à l'implémentation des différents uses cases, - Créer les datamarts correspondants aux besoins métiers, - Diffuser les données issues des Datamarts via les API de la Data Factory vers les différentes applications du Club Med, - Maintenir en condition opérationnel des modèles existants de Machine Learning (Tensorflow, Keras) et développer des nouveaux modèles en fonction des uses cases - Concevoir des applications basées sur des modèles de langage LLMs pour répondre à des uses case IA métiers en utilisant des outils open source comme Flowise, N8N, Langfuse ou des infrastructures type GPT. - Visualiser et diffuser des Dashboards via data studio - Sensibiliser au FinOps / GreenIT GCP et Azure Industrialisation et automatisation des pipeline de données - Assurer et améliorer le monitoring des différents flux déjà existants en mettant en place des processus d'automatisation et d'industrialisation. - Utiliser des outils DevOps (GitLab CI, Terraform, Bash) pour automatiser et orchestrer les workflows de données. Veille technologique et innovation IA - Participer à l'innovation IA - Explorer et implémenter des solutions open-source émergentes en IA, notamment Langfuse ou Flowise, pour capitaliser sur les avancées des modèles de langage (LLMs). - Réaliser des POC sur des solutions innovantes du marché, - Partager en interne les nouveautés notamment sur GCP et Azure - Participer à l'amélioration continue du socle technologique de la Data Factory, avec un accent fort sur l'intégration IA / LLM et l'automatisation intelligente.

Expérience requise : minimum 2 ans sur un poste équivalant DATA et IA. Diplôme : Bac +5 en école d'ingénieur / université spécialisée en Informatique et Gestion de la donnée et de la Data Science Compétences requises : - Architecture Cloud : Maîtrise des environnements GCP (BigQuery, Pub / Sub, Cloud Functions, Vertex AI, Cloud Storage), Azure (Data Factory, ML Studio). Certification GCP ou Azure est un atout, - Traitement des données : Expérience confirmée dans la création et la gestion de pipelines de données, ETL / ELT (Airflow, Prefect), - Langages : Excellente maîtrise de Python (notamment en POO) et SQL. Connaissances en Bash et Unix seraient un plus, - Machine Learning & IA : Compréhension des bases du Machine Learning (classification, random forest, NLP) et capacité à déployer ou maintenir des modèles avec TensorFlow, PyTorch ou Keras, - Intégration IA / LLM : Familiarité avec des outils open-source comme LangChain, N8N, Langfuse pour mettre en oeuvre des applications basées sur des LLMs, - Visualisation : Capacités à créer des Dashboards interactifs sous Data Studio et / ou d'autres outils BI (QlikView, Kibana est un plus), - Monitoring & Orchestration : Expérience avec des outils comme Airflow, Prometheus, Grafana, Jenkins pour superviser et automatiser les workflows. - Méthodologie Agile : Expérience confirmée en méthodologies agiles (Scrum, sprint planning, rétrospective). - Soft Skills attendues : - Sens de l'écoute pour comprendre les besoins métier complexes, - Capacité à collaborer avec des équipes transverses, - Rigueur et organisation pour évoluer au sein d'un environnement en constante évolution, - Capacité d'innovation et de proposition de solutions techniques adaptées aux enjeux IA, - Enthousiasme à partager des bonnes pratiques et à incarner la mission de la Data Factory auprès des collaborateurs. Technologies maîtrisées souhaitables : - GCP, Azure, Terraform, Airflow, SQL, BigQuery, Python, Vertex AI - Outils IA : TensorFlow, Keras, PyTorch, LangChain, Langfuse, API REST - Outils BI : Data Studio, QlikView, Tableau.

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.