Activez les alertes d’offres d’emploi par e-mail !

Stagiaire (h / f) - Data Analytics Engineer

SFR

Paris

Sur place

EUR 40 000 - 60 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Résumé du poste

Une entreprise de télécommunications recherche un(e) stagiaire Data Analytics Engineer pour participer à la migration des traitements de données vers Google Cloud Platform et pour développer des dashboards. Le candidat idéal est étudiant(e) en Master 2 en Data Ingénierie ou Data Analyse avec de bonnes compétences en SQL, Python, et une connaissance des environnements Cloud. Ce stage offre un cadre d'apprentissage dynamique et collaboratif.

Qualifications

  • Formation en Data Ingénierie ou Data Analyse requise.
  • Solides compétences en SQL idéalement avec BigQuery.
  • Compétences en Python sont nécessaires.
  • Connaissances des environnements Cloud, spécialement GCP.

Responsabilités

  • Accompagner le projet de migration vers GCP.
  • Rédiger des requêtes SQL dans BigQuery pour les partenaires.
  • Développer et automatiser des tableaux de bord pour les KPIs.
  • Gérer les incidents de production sur l'ancienne plateforme.

Connaissances

SQL
Python
Analyse de données
GCP
Airflow

Formation

Master 2 en Data Ingénierie ou Data Analyse

Outils

BigQuery
Google Cloud Storage
Description du poste

Intitulé du poste

Stagiaire (h / f) - Data Analytics Engineer

Description de la mission

Au sein de la Direction des Contenus, Acquisitions et Partenariats, le pôle Audiences & Advertising est chargé de la monétisation des données de consommation TV / Vidéo des clients SFR.

Ces données sont exploitées pour différents usages :
  • Suivi des audiences TV en temps réel pour les chaînes TV et producteurs,
  • Ciblage publicitaire en TV basé sur les contenus visionnés, dans le cadre de la « TV segmentée »
  • Études de performance publicitaire via des croisements de données internes et externes.

Depuis 2017, le traitement des données d'audiences était effectué sur une plateforme on-premise hébergée par les équipes Réseaux de SFR (applications en Python dans un environnement Linux).

Dans le cadre d'un projet de modernisation, une évolution est prévue vers un environnement Google Cloud Platform - avec la refonte des traitements data en SQL BigQuery.

Vous participerez à la transformation des traitements de données d'audiences TV et à la mise en place de nouveaux cas d'usages data.

Vos principales missions seront :
1) Accompagnement du projet de migration vers GCP
  • Participer à la validation des besoins métier et aux ateliers de modélisation des traitements de données d'audiences,
  • Participer à la documentation des nouveaux traitements développés dans GCP : consigner les éléments clés afin d'assurer la traçabilité des développements réalisés.
2) Participation à l'intégration de nouveaux partenaires et cas d'usage data
  • Rédiger ou adapter des requêtes SQL dans BigQuery (GCP), pour la production de données à destination de nos partenaires data,
  • Suivre la qualité et la cohérence des livrables et des flux de données en collaboration avec les équipes techniques et SI
3) Suivi et automatisation des indicateurs clés (KPIs)
  • Développer, maintenir et automatiser des tableaux de bord pour le suivi de l'activité « TV segmentée » (pub ciblée en TV),
  • Participer à l'analyse de la performance des campagnes TV segmentées et à la détection d'éventuelles anomalies dans la délivrance de ces campagnes
4) Maintenance sur l'ancienne plateforme « on-premise » :
  • Rédiger des scripts en Python pour assurer le maintien des process encore en activité sur l'ancienne plate-forme « on-premise », tant que celle-ci n'est pas décommissionnée.
  • Aider à la gestion des incidents de production : assurer le redémarrage des traitements, identifier et rattraper les fichiers non générés, synchroniser les flux de données.
Profil

Profil recherché :

Étudiant(e) en Master 2 ou fin d'études (école d'ingénieurs, université ou école spécialisée) avec une formation en Data Ingénierie ou Data Analyse

Solides compétences en SQL (idéalement BigQuery) et Python.

Connaissance des environnements Cloud, notamment GCP (Google Cloud Storage, Identity Access Management, Dataflow, Pub / Sub).

Connaissances des plateformes de planification et de monitoring des flux automatisés (idéalement Airflow)

Bon sens analytique, rigueur et appétence pour la valorisation business de la donnée.

Curiosité, autonomie et goût pour le travail collaboratif.

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.