Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Senior Data Engineer H / F

Clic & Tour

Paris

Sur place

EUR 50 000 - 80 000

Plein temps

Il y a 29 jours

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise leader en tourisme local recherche un(e) Ingénieur(e) de données senior pour rejoindre son siège à Paris. Vous serez responsable de la conception et de la maintenance des pipelines de données dans un environnement Google Cloud. Le candidat idéal possède plus de 5 ans d'expérience en data engineering, maîtrise GCP et Python. Collaboration avec diverses équipes pour optimiser les performances des données est essentielle. Ce poste offre un environnement dynamique et des défis techniques intéressants.

Qualifications

  • 5+ ans d'expérience en data engineering.
  • Maîtrise de GCP, particulièrement BigQuery.
  • Solide expérience en Python et bonnes pratiques de développement.

Responsabilités

  • Concevoir et maintenir des pipelines de données scalables.
  • Modéliser et transformer les données via dbt.
  • Optimiser les performances de l'entrepôt de données (BigQuery).

Connaissances

Ingénierie des données
GCP
BigQuery
Python
dbt
Airflow
Collaboration
Description du poste

Le Groupe Pierre & Vacances Center Parcs est un leader européen du tourisme local avec un réseau de destinations en Europe, et une famille multiculturelle de plus 13 collaborateurs.

Au sein de l'équipe Digital & Data et pour renforcer notre stratégie avec une forte dimension tech, nous recherchons un(e) Senior Data Engineer pour rejoindre notre siège situé à Paris 19ème.

Au sein de l'équipe Data Platform, vous serez responsable de la conception, de l'industrialisation et de la fiabilisation des pipelines de données dans un environnement cloud Google Cloud Platform.

Vous jouerez un rôle clé dans la structuration de notre moderne data stack et accompagnerez la montée en maturité des pratiques data de l'entreprise.

Vos missions principales sont les suivantes :
  • Concevoir, développer et maintenir des pipelines de données robustes et scalables
  • Modéliser et transformer les données via dbt (modèle de données, tests, documentation)
  • Orchestrer les traitements avec Airflow
  • Participer à la mise en place des bonnes pratiques CI / CD et de l'observabilité data (monitoring, alerting, data quality)
  • Optimiser les performances de notre entrepôts de données (BigQuery) et gérer les coûts liés à l'usage du cloud
  • Collaborer avec les équipes Analytics pour fournir des datasets fiables et documentés
  • Encadrer techniquement des profils plus juniors, challenger les choix techniques
  • Contribuer à la vision architecture data, en lien avec les enjeux business
Profil recherché
  • 5+ ans d'expérience en data engineering (alternance exclue)
  • Maîtrise de GCP et plus particulièrement BigQuery
  • Solide expérience en python, bonnes pratiques de développement (tests, clean code)
  • Expérience concrète avec dbt et Airflow (architecture, déploiement, optimisation)
  • Culture data product / data as code, automatisation et industrialisation
  • Capacité à prendre du recul sur les architectures et à challenger les choix techniques
  • Esprit collaboratif, sens du partage et de la documentation
Bonus :
  • expérience FinOps Cloud, streaming (Pub / Sub, Kafka), data quality tooling
  • Soft Skills Leadership technique et capacité à mentorer
  • Bonne communication avec les équipes métiers et techniques
  • Culture de la fiabilité, du monitoring et de l'amélioration continue
  • Pragmatique : savoir prioriser entre robustesse et time-to-market
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.