Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

DATA ENGINEER

DGTL Performance

Nantes

Sur place

EUR 45 000 - 60 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une société de facilitation de données recherche un professionnel pour concevoir et documenter des pipelines de données et participer à la migration vers de nouvelles technologies. Le candidat idéal maîtrise des outils comme Kafka et DBT et saura travailler en étroite collaboration avec l'équipe. Une attention particulière sera portée sur la sécurité et la conformité RGPD. Ce rôle requiert également des compétences en Python et Trino et une capacité à promouvoir les meilleures pratiques de développement.

Qualifications

  • Maîtrise des outils DBT et Kafka.
  • Bonne connaissance des pratiques de déploiement CI/CD.
  • Capacité à travailler en étroite collaboration et en mode agile.

Responsabilités

  • Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation.
  • Participer à la migration et l'optimisation des traitements.
  • Travailler en étroite collaboration avec le Tech Lead et les PO.

Connaissances

Kafka
DBT
Python
Trino
Description du poste

DGTL / Signe + est le facilitateur pour tous les acteurs qui recherchent des ressources ou des missions DATA.

Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.

Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.

https://www.dgtl-performance.com

Description du poste :

L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, Kafka Connect, Trino.

  • Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino).
  • Mettre en place des modèles de données optimisés et cohérents avec les standards du socle.
  • Participer à la migration et l'optimisation des traitements depuis Cloudera / Spark vers les nouvelles technologies (Kafka / Trino / Iceberg).
  • Intégrer les développements dans la chaîne CI / CD, en lien avec les pratiques de déploiement du socle.
  • Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD.
  • Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs).
  • Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka.
  • Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring).
  • Être force de proposition sur l'amélioration continue du socle et des workflows de développement.
  • Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus.
  • Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective).
Profil recherché :

Les activités confiées supposent la maîtrise de :

  • Kafka
  • DBT
  • Python
  • Trino
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.