Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Stagiaire Data Engineer F/H F/H

Air France

Occitanie

Sur place

EUR 40 000 - 60 000

Plein temps

Hier
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une grande compagnie aérienne recherche un(e) stagiaire en Data Engineering pour concevoir un dispositif de suivi des performances, des coûts et de la complétude de flux sur Google Cloud Platform. Vous développerez un tableau de bord Power BI et identifierez les indicateurs clés liés aux coûts BigQuery et aux événements Kafka. Une formation Bac+5 est demandée, ainsi qu'une maîtrise de SQL et Power BI.

Qualifications

  • Maîtrise des outils d'analyse et de visualisation (SQL, Power BI, Spotfire).
  • Excellentes capacités analytiques avec rigueur et autonomie.
  • Capacité à gérer plusieurs projets simultanément.

Responsabilités

  • Concevoir un dispositif de suivi des performances et des coûts.
  • Développer un tableau de bord Power BI centralisé.
  • Identifier les indicateurs clés de suivi (coûts BigQuery, erreurs, etc.).

Connaissances

SQL
Power BI
Capacités analytiques
Autonomie
Gestion de projets

Formation

Formation Bac+5 en Data Engineering, Statistiques, Informatique ou équivalent

Outils

Git
Terraform
Description du poste
Entité de rattachement

Avec le premier réseau long-courrier au départ de l'Europe, conna le groupe Air France /KLM est un acteur majeur du transport aérien mondial. Ses principaux métiers sont le transport aérien de passagers, de fret et la maintenance aéronautique.

Référence

2026-23603

Description du poste
Intitulé du poste
Métier

Systèmes d'informations - Développement

Présentation du contexte

Le Shopping Data Hub (SDH) d’Air France KLM est un nouveau hub de données développé sur Google Cloud Platform (GCP) qui reçoit, réconcilie, stocke et partage les données du processus d’achats client allant de la recherche client, aux offres vols et options proposées à nos clients jusqu’à la réservation. Comme le volume de données stockées est important (plusieurs TB de données par jour), l’optimisation des coûts FinOps est primordiale.

En plus du développement de ce hub avec le système de réservation actuel, Air France KLM s’est inscrit dans un grand projet de changement de sa manière de vendre des billets et options afin d’aller vers un modèle plus orienté vers le commerce de détail. Nous allonsICA PASS ; SA pass Using ...? (sorry). Cette phrase était « En plus du développement de ce hub avec le système de réservation actuelle, Air France KLM s’est inscrit dansČ; sa manière de vendre des billets et options afin d’aller vers un modèle plus orienté vers le commerce de détail. Nous allons donc passer d’un système « dossiers de référence – billets » à un modèle « commande ». En 2026, SDH commencera à recevoir les premières données de la nouvelle source de commande. »

Sur le Cloud GCP, de nouveaux enjeux d’observabilité apparaissent :

  • Suivre finement les coûts BigQuery (FinOps), en particulier le coût par requête, par job, par pipeline ou par source de données.
  • Garantir la bonne réception des événements SDH issus des flux Kafka, afin d’assurer la complétude et la fiabilité du Data Warehouse.

Le stage proposé s’inscrit dans cette démarche : concevoir pivotComplete complète de monitoring et d’observabilité permettant à l’équipe Data d’avoir une vision claire sur la santé du système, la qualité des flux entrants et la maîtrise des coûts.

Description de la mission

Nous recherchons un(e) stagiaire aura pour accompagner l’équipe de data engineering PNR afin de :

Concevoir et mettre en place un dispositif de suivi des performances, des coûts et de la complétude des flux SDH dans l mch. environ GCP.
Développer un tableau de bord Power BI centralisant ces informations de manière claire et visuelle.
L’objectif final est de fournir à l’équipe et aux responsables métiers un outil de pilotage en temps réel de l’activité du Data Warehouse GCP.

Les missions principales sont les suivantes:

  • Identifier les indicateurs clés :
    coûts BigQuery (par requête, dataset, job, utilisateur, pipeline),
    volumétrie et latence des événements Kafka reçus,
    erreurs ou ruptures de flux,
    taux de complétude et fréquence de rafraîchissement des données.
  • Collecter les données de logs et de métriques GCP (Cloud Logging, Cloud Monitoring, BigQuery INFORMATION_SCHEMA, etc.).
  • Centraliser ces informations dans un dataset de monitoring dans BigQuery.
  • Concevoir un tableau de bord Power BI pour la visualisation et le pilotage.
  • Documenter la solution, automatiser les rapports et proposer des mécanismes d’alerte (détection d’anomalies, dérives de coûts, flux interrompus).

Environnement technique :

  • Monitoring, Dataflow, Pub/Sub, éventuellement Dataform)
  • BI & Visualisation : Power BI (connecteur BigQuery)
  • Outils : Git, Terraform (optionnel)
Profil recherché

Vous êtes en dernière année d’une Formation Bac+5 en Data Engineer, Statistiques, Informatique, Mathématiques ou équivalent.

Vous maîtrisez des outils d’analyse et de visualisation (SQL, Power BI, Spotfire).
Vous avez d'excellentes capacités analytiques et vous faites preuve de rigueur, d'autonomie, d'esprit d’équipe.

Vous avez la capacité à gérer plusieurs projets simultanément.

Vous communiquez avec aisance des analyses complexes à des interlocuteurs non techniques.

Vous avez le sens du détail et l'exigence dans la qualité des livrables.

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.