Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Data Engineer GCP / Airflow / dbt

LUTESSA

Paris

Hybride

EUR 45 000 - 60 000

Plein temps

Il y a 30+ jours

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise technologique spécialisée à Paris recherche un Data Engineer GCP confirmé pour concevoir et maintenir des pipelines de données. Vous travaillerez sur des projets cloud performants et collaborerez avec diverses équipes. Le candidat idéal a au moins 3 ans d'expérience en Data Engineering, maîtrise les outils GCP et parle couramment français. Un environnement hybride est proposé.

Prestations

Environnement Cloud et IA moderne
Culture technique forte
Accompagnement vers les certifications GCP
Projets à impact

Qualifications

  • Minimum 3 ans d'expérience professionnelle post-études en Data Engineering cloud.
  • Expérience confirmée sur GCP et les outils du pipeline (Airflow, Spark, dbt / Kedro).
  • Maîtrise des concepts d'industrialisation, d'orchestration et de gouvernance de données.
  • Capacité à travailler en autonomie dans un environnement exigeant.
  • Français courant obligatoire.

Responsabilités

  • Concevoir, développer et maintenir des pipelines Data sur GCP.
  • Industrialiser les flux via Airflow, dbt ou Kedro.
  • Mettre en place les bonnes pratiques CI / CD.
  • Garantir la qualité, la documentation et la traçabilité des datasets.
  • Collaborer avec les équipes Data Science / Produit / Métier.
  • Participer à la structuration des environnements DataOps.

Connaissances

Python
SQL
Spark
Airflow
BigQuery
dbt
Kedro
Terraform
GitLab CI / CD
Dataplex
Description du poste
Qui sommes nous ?

Nous c'est Lutessa, ESN hyper-spécialisée dans 3 domaines d'activité : la Connectivité, le Cloud et la Cybersécurité.

Grâce à une centaine de spécialistes technophiles, Lutessa accompagne ses clients, à savoir, constructeurs, opérateurs, intégrateurs et grands donneurs d'ordres dans l'étude, l'intégration et la gestion de leurs infrastructures critiques.

A ce jour, Lutessa couvre aujourd'hui 2 territoires : la France & Monaco, et a l'ambition d'en ouvrir d'autres !

Pourquoi nous rejoindre ?

Ingénieurs en Cybersécurité, Réseau et Cloud avant tout passionnés par les infrastructures informatiques et également curieux, et animés par l'envie d'un perfectionnement continu ?

Rejoignez la Lutessa Family !

Au delà de vos compétences intrinsèquement techniques, Lutessa vous accueille comme vous êtes et sa promesse est de bâtir ensemble votre carrière avec sincérité et transparence.

Lutessa se veut être un catalyseur et un bâtisseur de carrière, en vous stimulant et vous exposant sur des projets pertinents et enrichissants pour vous.

Vos RingLeaders (référents techniques) s'engagent à vous accompagner dans votre développement en veillant à incarner et transmettre leurs valeurs en toute simplicité.

Venez développer votre potentiel au sein d'une société à taille humaine qui se définit comme une entreprise Joyeuse !

Pour en savoir plus sur notre état d'esprit :

https://www.lutessa.com

Description du poste :

🚀 Data Engineer GCP – Spark, Airflow, dbt / Kedro | Industrialisation & qualité des données

Contexte

Tu veux rejoindre une équipe Data qui construit des pipelines cloud à grande échelle, avec des enjeux de performance, de qualité et d'industrialisation ?

Nous recherchons un Data Engineer confirmé GCP, passionné par la scalabilité, la modélisation et la fiabilité de la donnée, pour intervenir sur un environnement cloud de référence.

Tes missions :
  • Concevoir, développer et maintenir des pipelines Data sur GCP (BigQuery, Dataflow, Composer).
  • Industrialiser les flux via Airflow, dbt ou Kedro, selon les use cases.
  • Mettre en place les bonnes pratiques CI / CD (GitLab) et Infrastructure as Code (Terraform / Terragrunt).
  • Garantir la qualité, la documentation et la traçabilité des datasets.
  • Collaborer avec les équipes Data Science / Produit / Métier pour fiabiliser et exploiter la donnée.
  • Participer à la structuration des environnements DataOps et à la montée en maturité des process.
Profil recherché : Stack technique

Python – SQL – Spark – Airflow – BigQuery – dbt – Kedro – Terraform / Terragrunt – GitLab CI / CD – Dataplex (un plus)

Minimum 3 ans d'expérience professionnelle post-études en Data Engineering cloud.

Expérience confirmée sur GCP et les outils du pipeline (Airflow, Spark, dbt / Kedro).

Maîtrise des concepts d'industrialisation, d'orchestration et de gouvernance de données.

Capacité à travailler en autonomie dans un environnement exigeant.

Français courant obligatoire, documentation et échanges internes en français.

Présentiel ≥ 50 % (Paris intra-muros).

Ce que nous offrons

Un environnement Cloud & IA moderne, outillé et exigeant.

Une culture technique forte : qualité, code review, mentoring.

Un accompagnement vers les certifications GCP / Snowflake / Dataiku.

Des projets à impact au cœur d'écosystèmes cloud complexes.

Localisation

📍 Paris – hybride

Disponibilité

🕓 dès que possible

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.