Activez les alertes d’offres d’emploi par e-mail !

Data Engineer Databricks Confirmée

Jakala

Paris

Sur place

EUR 45 000 - 60 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Résumé du poste

Une entreprise de technologie recherche un Data Engineer confirmé à Paris pour développer des pipelines de données sur Databricks, optimiser des architectures de données et collaborer avec des équipes Data Science. Le candidat idéal a de l'expérience avec PySpark, SQL et des environnements cloud. Ce rôle est essentiel pour soutenir la croissance des projets à forte valeur ajoutée.

Qualifications

  • Expérience dans un environnement cloud (Azure, AWS ou GCP).
  • Connaissances en CI/CD (Git, Terraform, DevOps) sont un plus.
  • Capacité à travailler avec des architectures de données modernes.

Responsabilités

  • Conception, développement et maintien des pipelines de données scalables.
  • Mise en place et optimisation des architectures de données.
  • Collaboration avec les équipes Data Science et BI pour fournir des datasets.

Connaissances

PySpark SQL
Python
Apache Hive
AWS
Apache Pig
Scala

Outils

Airflow
Databricks
Description du poste

Pour soutenir notre croissance et nos projets à forte valeur ajoutée nous recherchons un Data Engineer Confirmé avec une expertise Databricks.

Overview

Au sein de notre practice Data & AI tes missions sont les suivantes :

Responsibilities
  • Conception développement et maintien des pipelines de données scalables sur Databricks.
  • Mise en place et optimisation des architectures de données (Data Lakehouse Delta Lake).
  • Développement des traitements de données distribués (PySpark SQL Delta Live Tables).
  • Collaboration avec les équipes Data Science et BI pour fournir des datasets fiables et industrialisés.
  • Participation à l’industrialisation : CI / CD monitoring automatisation et optimisation des coûts.
  • Contribution à la diffusion des bonnes pratiques et à l’amélioration continue de la plateforme.
  • Tu joues un rôle crucial dans le succès de nos clients et dans le développement de notre culture en France. Tu contribues à renforcer notre réputation en tant qu’experts.
  • Ensemble nous relèverons les plus grands défis de nos clients anticiperons les tendances futures et créerons des solutions innovantes à l’échelle globale !
Qualifications techniques
  • PySpark SQL et Python
  • Les concepts de Data Lakehouse Delta Lake et l’optimisation des jobs Spark
  • L’intégration et l’orchestration de flux (Airflow dbt ou équivalent)
  • Expérience dans un environnement cloud (Azure AWS ou GCP)
  • Des connaissances en CI / CD (Git Terraform DevOps) sont un plus
  • Architecture data moderne : modèle en couches (bronze silver gold)
Key Skills
  • Apache Hive, S3, Hadoop, Redshift, Spark, AWS, Apache Pig, NoSQL, Big Data, Data Warehouse, Kafka, Scala
Employment Details
  • Employment Type: Full-Time
  • Experience: years
  • Vacancy: 1
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.