Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Consultant.e Data Engineer Analytics Engineer dbt

The Information Lab

Paris

Sur place

EUR 45 000 - 55 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise de transformation des données recherche un professionnel basé à Paris pour concevoir et maintenir des modèles de données dans le Cloud. Le candidat idéal doit avoir des compétences en DataOps, en développement de pipelines avec Python, et en conseil en ingénierie de Data Warehouses. Le poste est à temps plein avec une rémunération comprise entre 45 000 et 55 000 € par an.

Qualifications

  • Expérience avec des modèles de données complexes et des outils comme dbt.
  • Connaissances des principes de DataOps et CI/CD.
  • Compétences en développement de pipelines avec Python et utilisation d'APIs.

Responsabilités

  • Concevoir, développer et maintenir des modèles de données dans le Cloud.
  • Mettre en œuvre des tests automatisés et l'intégration continue.
  • Participer à la construction des pipelines d'ingestion et d'orchestration de données.
  • Conseiller sur l'architecture de Data Warehouse.
  • Structurer les couches de données pour les projets de Machine Learning.
  • Gérer le delivery technique en mode agile.

Connaissances

Apache Hive
S3
Hadoop
Redshift
Spark
AWS
Apache Pig
NoSQL
Big Data
Data Warehouse
Kafka
Scala
Description du poste

Basé.e à Paris vous êtes le moteur de la fiabilité des données. Votre mission est de transformer les données brutes en modèles analytiques performants en appliquant des standards de qualité similaires à ceux du développement logiciel.

Responsabilités clés
  • Architecture & Modélisation dbt : Concevoir, développer et maintenir des modèles de données complexes dans le dépôt Cloud (Snowflake, BigQuery, etc.) en utilisant intensivement dbt (Data Build Tool).
  • DataOps & CI / CD : Mettre en œuvre les principes de DataOps (tests automatisés, intégration continue, version control) pour garantir la qualité, la traçabilité et la réplicabilité des modèles de données.
  • Développement de Pipelines : Participer à la construction des pipelines d'ingestion et d'orchestration de données en exploitant Python pour les logiques de transformation avancée et les API.
  • Conseil en Ingénierie : Conseiller nos clients sur l'architecture de leur Data Warehouse (DWH) et les former aux meilleures pratiques d'ingénierie et de modélisation avec dbt.
  • Innovation & ML / IA : Structurer les couches de données pour qu'elles soient directement exploitables par des applications et des projets de Machine Learning (IA).
  • Gestion de Projet : Piloter le delivery technique des solutions en mode agile.
Compétences clés
  • Apache Hive, S3, Hadoop, Redshift, Spark, AWS, Apache Pig, NoSQL, Big Data, Data Warehouse, Kafka, Scala
Type de contrat

Contract

Type d'emploi

Full-Time

Expérience

years

Vacance

1

Rémunération annuelle

45000 - 55000

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.