Activez les alertes d’offres d’emploi par e-mail !

Data Engineer Confirme

Jakala

Paris

Sur place

EUR 60 000 - 80 000

Plein temps

Il y a 18 jours

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise innovante recherche un professionnel passionné par les données pour rejoindre son DataLab. Dans ce rôle, vous contribuerez au développement de solutions Data, en collaborant avec des Data Scientists et Data Engineers. Vous serez responsable de l'architecture ETL/ELT et de la gestion des données à travers divers projets. Ce poste offre l'opportunité de travailler sur des technologies cloud avancées et de participer à des projets de R&D, tout en assurant la scalabilité et la sécurité des données. Rejoignez une équipe dynamique où votre expertise en développement et en cloud sera mise à profit pour transformer des défis complexes en solutions efficaces.

Qualifications

  • Bon niveau en développement avec une expérience en entrepôts de données.
  • Compétences en cloud et infrastructure as code.

Responsabilités

  • Contribuer au développement de solutions Data et à l'industrialisation des plateformes.
  • Développer des pipelines de traitement de données dans un environnement Big Data.

Connaissances

Développement logiciel
Connaissance des entrepôts de données
Compétences cloud
Cartographie des données

Outils

Snowflake
Big Query
PostgreSQL
Kubernetes
Terraform

Description du poste

Au sein de notre DataLab, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE / MLOps engineer en poste et tu es impliqué(e) dans la prise de décisions liées aux solutions Data et son évolution.

A cet effet, tu es en charge de :

  1. Contribuer au développement de notre offre Data et l'industrialisation de plateformes data pour nos clients.
  2. Comprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internes.
  3. Définir l'architecture logiciel ETL / ELT en collaboration avec vos pairs.
  4. Travailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage).
  5. Rédiger de la documentation technique (diagrammes UML, documentation d'API).
  6. Partager votre savoir-faire entre les différents membres de l'équipe.
  7. Concevoir et développer des connecteurs entre les sources de données (internes et / ou externes) et la plateforme.
  8. Concevoir et développer des pipelines de traitements de données (batch et / ou temps réel) dans un environnement Big Data.
  9. Assurer une veille technologique et savoir mener à bien un projet de R&D.

Tu assures en autonomie les missions suivantes en interne ou auprès de nos clients grands comptes :

  1. Cartographier des données et des flux de données.
  2. Implémenter des algorithmes d'analyse de données pour l'industrialisation.
  3. Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes).
  4. Développer et automatiser des flux de données et leurs visualisations en dashboards reporting.
  5. S'assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme.
  6. Analyser les données web pour répondre aux questions métiers et participer à la construction de l'architecture Big Data.
  7. Mettre en place du séquençage et de la supervision des flux précités en garantissant les cas limites.

Compétences attendues :

Bon niveau en développement :

  1. Connaissance, conception et administration d'entrepôt de données : Snowflake, Big Query, PostgreSQL.
  2. Compétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform).
  3. Expérience d'architecture et de dimensionnement d'une architecture cloud via des services managés.
  4. Cartographie des données.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.