
Activez les alertes d’offres d’emploi par e-mail !
Générez un CV personnalisé en quelques minutes
Décrochez un entretien et gagnez plus. En savoir plus
Une entreprise de technologie recherche un Data Engineer GCP expérimenté pour concevoir des pipelines cloud à grande échelle. Vous aurez la responsabilité d'industrialiser les flux de données via Airflow et dbt, tout en garantissant la qualité et la traçabilité des datasets. Le candidat idéal possède au moins 3 ans d'expérience en Data Engineering dans un environnement GCP. Ce poste propose un modèle hybride avec 50 % de présentiel à Paris.
Data Engineer GCP - Spark, Airflow, dbt / Kedro Industrialisation & qualité des données
Tu veux rejoindre une équipe Data qui construit des pipelines cloud à grande échelle, avec des enjeux de performance, de qualité et d'industrialisation ?
Nous recherchons un Data Engineer confirmé GCP, passionné par la scalabilité, la modélisation et la fiabilité de la donnée, pour intervenir sur un environnement cloud de référence.
Python - SQL - Spark - Airflow - BigQuery - dbt - Kedro - Terraform / Terragrunt - GitLab CI / CD - Dataplex (un plus)
Attention : ce poste ne s'adresse pas aux alternants, stagiaires ni profils sortis d'école.
Minimum 3 ans d'expérience professionnelle post-études en Data Engineering cloud.
Expérience confirmée sur GCP et les outils du pipeline (Airflow, Spark, dbt / Kedro).
Maîtrise des concepts d'industrialisation, d'orchestration et de gouvernance de données.
Capacité à travailler en autonomie dans un environnement exigeant.
Français courant obligatoire, documentation et échanges internes en français.
Présentiel 50 % (Paris intra-muros).
Un environnement Cloud & IA moderne, outillé et exigeant.
Une culture technique forte : qualité, code review, mentoring.
Un accompagnement vers les certifications GCP / Snowflake / Dataiku.
Des projets à impact au coeur d'écosystèmes cloud complexes.
Localisation : Paris - hybride
Disponibilité : dès que possible