Activez les alertes d’offres d’emploi par e-mail !

Data Engineer

Genly Consulting

Palaiseau

Sur place

EUR 40 000 - 60 000

Plein temps

Il y a 30+ jours

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Repartez de zéro ou importez un CV existant

Résumé du poste

Une entreprise dynamique recherche un Data Engineer pour rejoindre son équipe et optimiser les pipelines de traitement de données. Dans un environnement en pleine évolution, ce rôle exige une expertise en développement de pipelines ETL/ELT, en particulier avec dbt et Python. Vous serez responsable de la création de solutions robustes et de la collaboration avec les équipes métiers pour garantir que les besoins sont traduits en solutions techniques efficaces. Si vous êtes passionné par les données et souhaitez contribuer à des projets innovants, cette opportunité est faite pour vous.

Qualifications

  • Expérience confirmée dans le développement de pipelines ETL/ELT, notamment avec dbt.
  • Maîtrise avancée de la programmation en Python.

Responsabilités

  • Développer des pipelines de données robustes et performants.
  • Collaborer avec les équipes métiers pour traduire les besoins en solutions techniques.

Connaissances

Développement de pipelines ETL/ELT
Programmation en Python
Connaissance des architectures Data Lake
Standardisation et industrialisation des flux
Expérience avec des plateformes DataOps
Connaissance des contraintes en environnement ML

Outils

dbt
Saagie

Description du poste

Dans le cadre de l’offre de service du Data Office, notre client recherche un Data Engineer pour renforcer son équipe sur la plateforme data. La mission consiste principalement à créer et optimiser des pipelines de traitement de données sur la plateforme Saagie, en exploitant les technologies DBT et Python.

La plateforme étant encore jeune, ce dernier a besoin d’un collaborateur capable de travailler en mode exploration tout en structurant les développements pour une future montée en échelle.

  • Développer des pipelines de données robustes, performants et industrialisés.
  • Concevoir et maintenir des transformations de données en utilisant dbt.
  • Intégrer, nettoyer et préparer des données à des fins analytiques et décisionnelles.
  • Automatiser les flux de données en Python pour optimiser les traitements.
  • Collaborer avec les équipes métiers pour comprendre les besoins et traduire ces derniers en solutions techniques adaptées.

Techniques :

  • Expérience confirmée dans le développement de pipelines ETL/ELT, notamment avec dbt.
  • Maîtrise avancée de la programmation en Python.
  • Connaissance des architectures Data Lake et des solutions open source associées.
  • Expertise en standardisation et industrialisation des flux (CI/CD, orchestration, monitoring).
  • Expérience avec des plateformes DataOps telles que Saagie.
  • Connaissance des contraintes liées aux projets en environnement ML (Machine Learning).

Fonctionnelles :

  • Capacité à comprendre les besoins métiers et projets.
  • Aptitude à évaluer les implications techniques des choix fonctionnels.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.