Activez les alertes d’offres d’emploi par e-mail !

CDI - Data Engineer H/F

AMI PARIS

Paris

Sur place

EUR 45 000 - 75 000

Plein temps

Il y a 30+ jours

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Repartez de zéro ou importez un CV existant

Résumé du poste

Rejoignez une entreprise en pleine croissance où vous serez au cœur de l'optimisation de l'infrastructure data. En tant que Data Engineer, vous collaborerez avec des équipes IT et métier pour développer des pipelines de données et assurer la qualité des données. Vous aurez l'opportunité de travailler avec des technologies de pointe comme Snowflake et dbt, tout en ayant un réel impact sur la stratégie data d'une marque dynamique. Ce poste offre un environnement stimulant dans le secteur mode/luxe, propice à l'innovation et à la collaboration.

Prestations

Environnement dynamique
Défis techniques stimulants
Impact sur la stratégie data
Travail agile
Possibilité de travailler avec une MDS de pointe

Qualifications

  • 3 ans d'expérience en data engineering, idéalement dans le secteur retail.
  • Maîtrise des outils comme Airflow, Snowflake et dbt.

Responsabilités

  • Développer et maintenir des pipelines de données avec Airflow et Fivetran.
  • Assurer la qualité des données et le monitoring des pipelines.

Connaissances

Airflow
Fivetran
Snowflake
dbt Core
dbt Cloud
Python
GitLab
CI/CD
Data Engineering
FinOps

Formation

Bac+5 en informatique
Équivalent en data engineering

Outils

GitLab
Sifflet

Description du poste

En tant que Data Engineer, vous serez au cœur de la construction et de l’optimisation de notre infrastructure data. Vous travaillerez en étroite collaboration avec les équipes IT et métier pour assurer la fiabilité, la scalabilité et le monitoring de notre plateforme analytique.

Vos principales responsabilités incluront :

  1. Développement et orchestration des pipelines de données
    • Développer et maintenir les pipelines d’ingestion de données en orchestrant les flux via Airflow et Fivetran.

    • Concevoir, modéliser et optimiser notre data warehouse sous Snowflake.

    • Mettre en place et maintenir des transformations de données avec dbt Core / dbt Cloud.

    • Automatiser et surveiller les workflows de data ingestion et transformation.

  2. Qualité et monitoring des données
    • Mettre en place un monitoring avancé des pipelines et de la qualité des données avec Sifflet.

    • Définir et implémenter des tests de validation avec dbt pour détecter les anomalies et garantir la fiabilité des données.

    • Configurer des alertes proactives pour prévenir et diagnostiquer les erreurs de pipeline ou les écarts de qualité des données.

    • Collaborer avec les équipes métiers pour définir les indicateurs critiques de qualité et les SLA data.

  3. Optimisation FinOps et monitoring des coûts
    • Suivre et analyser l'optimisation des coûts notamment sur Snowflake, en ajustant les ressources et les requêtes pour réduire la consommation inutile.

    • Mettre en place des alertes sur la consommation excessive et proposer des ajustements pour un usage efficient.

    • Optimiser les flux de données pour équilibrer performances et coûts, en appliquant les meilleures pratiques FinOps.

  4. Gouvernance et collaboration
    • Assurer la gouvernance des données en garantissant leur qualité, accessibilité et sécurité.

    • Collaborer avec les équipes métiers pour comprendre leurs besoins et fournir des solutions adaptées.

    • Versionner et gérer le code via GitLab, en appliquant les meilleures pratiques DevOps et CI/CD.

    • Développer des scripts en Python pour le traitement et l’analyse avancée des données.

Profil recherché

Bac+5 en informatique, data engineering ou équivalent.
3 ans minimum en data engineering, idéalement dans le secteur retail ou e-commerce.

Compétences clés

Obligatoires :

  • Maîtrise d’Airflow, Fivetran, Snowflake, dbt Core et Cloud.

  • Expérience en monitoring des pipelines et de la qualité des données.

  • Excellente connaissance de Python.

  • Bonne expérience avec GitLab et les principes CI/CD.

  • Connaissance avancée des architectures data et des bonnes pratiques en data engineering.

  • Expérience en optimisation FinOps et suivi des coûts Snowflake.

Un plus :

  • Expérience avec les ERP Cegid (ORLI, Y2).

  • Expérience avec des outils de monitoring avancés et des alertes automatisées.

  • Expérience avec des outils de visualisation de logs et d’observabilité des pipelines.

Soft Skills

  • Esprit structuré et rigoureux.

  • Autonomie et force de proposition.

  • Excellentes capacités de communication et de collaboration avec des équipes métiers et techniques.

  • Capacité à travailler dans un environnement dynamique.

Pourquoi nous rejoindre ?

  • Travailler dans une entreprise en forte croissance avec des défis techniques stimulants.

  • Évoluer dans un environnement mode/luxe dynamique et innovant.

  • Travailler avec une MDS de pointe.

  • Travailler dans un environnement très agile.

  • Avoir un réel impact sur la stratégie data d’une marque en pleine transformation digitale.

Conformément à la règlementation, tous nos postes sont ouverts au recrutement de travailleurs handicapés.

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.