Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Data Engineer Gcp - Airflow - Dbt H / F

Lutessa

Vanves

Hybride

EUR 50 000 - 70 000

Plein temps

Hier
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise de technologie recherche un Data Engineer GCP expérimenté pour concevoir des pipelines cloud à grande échelle. Vous aurez la responsabilité d'industrialiser les flux de données via Airflow et dbt, tout en garantissant la qualité et la traçabilité des datasets. Le candidat idéal possède au moins 3 ans d'expérience en Data Engineering dans un environnement GCP. Ce poste propose un modèle hybride avec 50 % de présentiel à Paris.

Prestations

Environnement Cloud & IA moderne
Accompagnement vers les certifications GCP
Culture technique forte avec mentoring

Qualifications

  • Minimum 3 ans d'expérience professionnelle en Data Engineering cloud.
  • Expérience confirmée sur GCP et les outils du pipeline.
  • Maîtrise des concepts d'industrialisation et de gouvernance des données.

Responsabilités

  • Concevoir, développer et maintenir des pipelines Data sur GCP.
  • Industrialiser les flux via Airflow, dbt ou Kedro.
  • Mettre en place CI / CD et Infrastructure as Code.

Connaissances

GCP
Python
SQL
Spark
Airflow
dbt
Kedro
Terraform
GitLab CI / CD
Description du poste

Data Engineer GCP - Spark, Airflow, dbt / Kedro Industrialisation & qualité des données

Contexte

Tu veux rejoindre une équipe Data qui construit des pipelines cloud à grande échelle, avec des enjeux de performance, de qualité et d'industrialisation ?

Nous recherchons un Data Engineer confirmé GCP, passionné par la scalabilité, la modélisation et la fiabilité de la donnée, pour intervenir sur un environnement cloud de référence.

Tes missions :
  • Concevoir, développer et maintenir des pipelines Data sur GCP (BigQuery, Dataflow, Composer).
  • Industrialiser les flux via Airflow, dbt ou Kedro, selon les use cases.
  • Mettre en place les bonnes pratiques CI / CD (GitLab) et Infrastructure as Code (Terraform / Terragrunt).
  • Garantir la qualité, la documentation et la traçabilité des datasets.
  • Collaborer avec les équipes Data Science / Produit / Métier pour fiabiliser et exploiter la donnée.
  • Participer à la structuration des environnements DataOps et à la montée en maturité des process.
Stack technique

Python - SQL - Spark - Airflow - BigQuery - dbt - Kedro - Terraform / Terragrunt - GitLab CI / CD - Dataplex (un plus)

Profil recherché :

Attention : ce poste ne s'adresse pas aux alternants, stagiaires ni profils sortis d'école.

Minimum 3 ans d'expérience professionnelle post-études en Data Engineering cloud.

Expérience confirmée sur GCP et les outils du pipeline (Airflow, Spark, dbt / Kedro).

Maîtrise des concepts d'industrialisation, d'orchestration et de gouvernance de données.

Capacité à travailler en autonomie dans un environnement exigeant.

Français courant obligatoire, documentation et échanges internes en français.

Présentiel 50 % (Paris intra-muros).

Ce que nous offrons

Un environnement Cloud & IA moderne, outillé et exigeant.

Une culture technique forte : qualité, code review, mentoring.

Un accompagnement vers les certifications GCP / Snowflake / Dataiku.

Des projets à impact au coeur d'écosystèmes cloud complexes.

Localisation : Paris - hybride

Disponibilité : dès que possible

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.