🚀 Senior Data Engineer GCP – Construisez des plateformes data modernes à fort impact 🚀
Vous aimez manipuler la donnée à grande échelle, concevoir des architectures cloud performantes et relever des défis techniques concrets ?
Vous souhaitez évoluer dans un environnement où la qualité du code , la scalabilité et la collaboration sont au cœur des projets ?
Ce que vous ferez :
En tant que Senior Data Engineer GCP , vous participerez à la conception et à la mise en œuvre de solutions data cloud pour des clients grands comptes et scale-ups en pleine croissance.
Votre mission :
bâtir des fondations data solides et durables sur GCP , de l’ingestion à la valorisation.
Au quotidien, vous serez amené
- Concevoir et développer des pipelines de données robustes et automatisés (BigQuery, Dataflow, Pub / Sub, Composer…).
- Modéliser les données et optimiser les performances des traitements à grande échelle.
- Contribuer à la migration vers GCP et à la modernisation des environnements data existants.
- Mettre en place les bonnes pratiques de CI / CD, monitoring et gouvernance pour fiabiliser les process.
- Collaborer étroitement avec les équipes data, produit et cloud pour assurer la cohérence et la qualité des solutions livrées.
- Être force de proposition sur les choix d’architecture, d’outillage et d’optimisation .
Pourquoi ce poste est unique :
- Vous interviendrez sur des projets stratégiques et variés , du data warehouse à la data platform complète.
- Vous travaillerez avec les dernières technologies GCP (BigQuery, Dataproc, Dataform, Looker, etc.).
- Vous évoluerez dans un cadre bienveillant et exigeant , qui valorise l’expertise technique et la curiosité.
- Vous aurez un impact direct sur la performance et la culture data des entreprises accompagnées.
- Vous rejoindrez un collectif passionné, qui partage la même vision : mettre la data au service de la valeur métier .
Profil recherché :
- Minimum 5 ans d’expérience en Data Engineering ou Cloud Data Architecture .
- Excellente maîtrise de GCP et de ses services data (BigQuery, Dataflow, Pub / Sub, Cloud Storage…).
- Bon niveau en Python, SQL et infrastructure as code (Terraform, Cloud Build, GitLab CI / CD…).
- Sens du travail en équipe , rigueur technique et goût pour la résolution de problèmes complexes .
- En bonus : connaissance de DBT , Airflow , ou des architectures orientées streaming.
📍 Poste basé à Paris (mode hybride)
💬 Envie de relever le défi ? Discutons-en !