Activez les alertes d’offres d’emploi par e-mail !

Senior Data Engineer (CDD)

Evaneos

Paris

Sur place

EUR 60 000 - 70 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Résumé du poste

Une entreprise innovante recherche un Data Engineer pour renforcer son équipe Data Engineering. Vous travaillerez sur une plateforme de données moderne, en optimisant les infrastructures et en assurant la qualité des données. Les compétences en technologies comme GCP, Kubernetes, et diverses solutions big data comme Apache Hive et Spark sont requises. Ce poste est sous contrat avec un salaire annuel prévu entre 60 000 et 70 000 euros.

Qualifications

  • Expérience en tant que Data Engineer senior.
  • Compétences démontrées en gestion d'infrastructure data.
  • Expérience avec les environnements Cloud tels que GCP.

Responsabilités

  • Faire évoluer l'infrastructure Data (GCP, Kubernetes, Terraform).
  • Automatiser les déploiements et surveiller les coûts.
  • Optimiser et fiabiliser les pipelines de données.

Connaissances

Apache Hive
Hadoop
Spark
AWS
Kafka
Redshift
S3
NoSQL
Big Data
Data Warehouse
Apache Pig
Scala
Description du poste

Rôle & impact

Tu rejoins lequipe Data Engineering pour remplacer temporairement l'un de nos Data Engineers partie en congé maternité.

Ce n'est pas un poste de maintenance : tu arrives sur un projet déjà bien lancé avec de vrais sujets à faire avancer : data infrastructure, fiabilité, qualité, observabilité et IA.

Ton impact

Faire évoluer la data plateforme, renforcer ses fondations et aider les équipes à exploiter la donnée plus facilement au service de tous les Evaneossiennes (180).

Léquipe Data Engineering

Tu feras partie d'une équipe technique au cœur de la communauté Tech & Innovation dEvaneos (40 personnes) :

Alex Head of Data Engineering

2 Data Engineers déjà en poste

et bientôt toi pour compléter l'équipe !

Notre mission : construire une Data Platform fiable, moderne et accessible pour que chaque Evaneossienne (qu'il soit tech ou business) puisse explorer, comprendre et agir grâce à la donnée.

Stack :

  • Cloud provider : Google Cloud Platform
  • Ingestion : Airbyte (self-hosted sur GKE)
  • Transformation : dbt Core
  • Warehouse : Google BigQuery
  • BI : Looker & Looker Studio
  • Infrastructure-as-Code : Terraform & Terragrunt
  • Langages principaux : Python & SQL

Ton rôle en tant que Data Engineer

Faire vivre et faire évoluer l'infrastructure Data (GCP, Kubernetes, Terraform).

Tu assures la stabilité, la clarté et la maintenabilité de l'infrastructure.

Tu automatises les déploiements, surveilles les coûts et diffuses les bonnes pratiques.

Tu améliorest les outils internes (CLI, Data Catalog, Semantic Layer) pour simplifier l'usage de la plateforme et standardiser les pratiques.

Optimiser et fiabiliser les pipelines de données (Airflow dbt).

Tu garantis la fiabilité et la performance des pipelines en veillant à leur simplicité et à la réduction de la dette technique.

Tu assures la disponibilité et la cohérence des données au sein du data warehouse central utilisé chaque jour par les équipes produit, marketing et finance.

Renforcer la qualité et la confiance dans la donnée

Tu mets en place des tests, du monitoring et des alertes pour détecter les anomalies.

Tu contribues à une culture de la donnée fiable et documentée en améliorant le modèle de données (BigQuery) et la qualité globale des informations partagées.

Required Experience :

Senior IC

Key Skills

  • Apache Hive
  • S3
  • Hadoop
  • Redshift
  • Spark
  • AWS
  • Apache Pig
  • NoSQL
  • Big Data
  • Data Warehouse
  • Kafka
  • Scala

Employment Type : Contract

Experience : years

Vacancy : 1

Yearly Salary : 60000 - 70000

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.