Activez les alertes d’offres d’emploi par e-mail !

Senior Data Engineer GCP

Tenth Revolution Group

Île-de-France

Hybride

EUR 60 000 - 80 000

Plein temps

Hier
Soyez parmi les premiers à postuler

Résumé du poste

Une entreprise spécialisée en data cherche un Senior Data Engineer GCP pour construire des plateformes data modernes. Vous travaillerez sur des projets stratégiques avec des technologies GCP, tout en collaborant avec différentes équipes. Le candidat idéal a plus de 5 ans d'expérience en Data Engineering et une bonne maîtrise de GCP et de Python. Le poste est basé à Paris en mode hybride.

Qualifications

  • Minimum 5 ans d'expérience en Data Engineering ou Cloud Data Architecture.
  • Excellente maîtrise de GCP et de ses services data.
  • Bon niveau en Python, SQL et infrastructure as code.

Responsabilités

  • Concevoir et développer des pipelines de données robustes.
  • Contribuer à la migration vers GCP.
  • Collaborer avec les équipes data, produit et cloud.

Connaissances

GCP
Python
SQL
Data Engineering
Infrastructure as Code

Outils

BigQuery
Dataflow
Pub/Sub
Terraform
GitLab CI/CD
Description du poste

🚀 Senior Data Engineer GCP – Construisez des plateformes data modernes à fort impact 🚀

Vous aimez manipuler la donnée à grande échelle, concevoir des architectures cloud performantes et relever des défis techniques concrets ?

Vous souhaitez évoluer dans un environnement où la qualité du code , la scalabilité et la collaboration sont au cœur des projets ?

Ce que vous ferez :

En tant que Senior Data Engineer GCP , vous participerez à la conception et à la mise en œuvre de solutions data cloud pour des clients grands comptes et scale-ups en pleine croissance.

Votre mission :

bâtir des fondations data solides et durables sur GCP , de l’ingestion à la valorisation.

Au quotidien, vous serez amené
  • Concevoir et développer des pipelines de données robustes et automatisés (BigQuery, Dataflow, Pub / Sub, Composer…).
  • Modéliser les données et optimiser les performances des traitements à grande échelle.
  • Contribuer à la migration vers GCP et à la modernisation des environnements data existants.
  • Mettre en place les bonnes pratiques de CI / CD, monitoring et gouvernance pour fiabiliser les process.
  • Collaborer étroitement avec les équipes data, produit et cloud pour assurer la cohérence et la qualité des solutions livrées.
  • Être force de proposition sur les choix d’architecture, d’outillage et d’optimisation .
Pourquoi ce poste est unique :
  • Vous interviendrez sur des projets stratégiques et variés , du data warehouse à la data platform complète.
  • Vous travaillerez avec les dernières technologies GCP (BigQuery, Dataproc, Dataform, Looker, etc.).
  • Vous évoluerez dans un cadre bienveillant et exigeant , qui valorise l’expertise technique et la curiosité.
  • Vous aurez un impact direct sur la performance et la culture data des entreprises accompagnées.
  • Vous rejoindrez un collectif passionné, qui partage la même vision : mettre la data au service de la valeur métier .
Profil recherché :
  • Minimum 5 ans d’expérience en Data Engineering ou Cloud Data Architecture .
  • Excellente maîtrise de GCP et de ses services data (BigQuery, Dataflow, Pub / Sub, Cloud Storage…).
  • Bon niveau en Python, SQL et infrastructure as code (Terraform, Cloud Build, GitLab CI / CD…).
  • Sens du travail en équipe , rigueur technique et goût pour la résolution de problèmes complexes .
  • En bonus : connaissance de DBT , Airflow , ou des architectures orientées streaming.

📍 Poste basé à Paris (mode hybride)

💬 Envie de relever le défi ? Discutons-en !

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.