Activez les alertes d’offres d’emploi par e-mail !

Data engineer cloud gcp bigquery f / h (CDI)

Groupe FNAC DARTY

Ivry-sur-Seine

Sur place

EUR 50 000 - 70 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Résumé du poste

Une entreprise de vente au détail à Ivry-sur-Seine recherche un Data Engineer expérimenté pour renforcer son équipe au sein de la Data Factory. Le candidat aura pour mission de concevoir et maintenir des pipelines de données, assurer la qualité des données et rédiger la documentation technique. Une expérience dans l'environnement GCP et la maîtrise de Python et SQL sont nécessaires, ainsi qu'une bonne capacité à résoudre des problèmes complexes.

Qualifications

  • Expérience au sein de l'environnement GCP avec les services BigQuery, Cloud Storage, DataFlow.
  • Capacité à résoudre des problèmes complexes et optimiser les processus de traitement de données.

Responsabilités

  • Concevoir et maintenir les pipelines de données.
  • Garantir la qualité des données et mettre en place des systèmes de monitoring.
  • Rédiger les documents techniques associés au projet.
  • Animer la recette fonctionnelle avec les utilisateurs.

Connaissances

Analyse et Conception
Développement et Intégration
Qualité et Maintenance
Documentation et Pilotage
SQL
Python
GCP
Talend

Formation

Formation Informatique / Ingénieur

Outils

BigQuery
GCP
Talend
Gitlab
Terraform
Description du poste
Description de la Mission
  • Analyse et Conception: Participer à l'analyse du besoin avec la supervision du binôme PO / TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception / mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data.
  • Développement et Intégration: Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données.
  • Qualité, Maintenance et Supervision: Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe.
  • Documentation, Support, Pilotage: Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement.
Environnement Technique
  • Langages / Framework : SQL, BigQuery, Python, Shell.
  • Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend.
  • Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Profil : Compétences Recherchées
  • De formation Informatique / Ingénieur, avec une appétence pour le développement et la manipulation de données ainsi qu'une bonne maîtrise de Python et de SQL.
  • Avoir une expérience au sein de l'environnement GCP avec l'utilisation des principaux services (BigQuery, Cloud Storage, DataFlow, DataForm, Pub / Sub, Composer...) est un prérequis.
  • Une certification serait un plus.
  • Une expérience avec Talend et des outils de visualisation est un plus.
Esprit Analytique
  • Capacité à résoudre des problèmes complexes et à optimiser les processus de traitement de données.
Entreprise
  • Au sein de la Data Factory, nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Le candidat retenu intègrera la squad dédiée au périmètre E-Commerce.
  • Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.