Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Data Engineer H/F

EVORIEL

Paris

Sur place

EUR 50 000 - 70 000

Plein temps

Il y a 18 jours

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise spécialisée en technologie cherche un professionnel expérimenté pour gérer et optimiser sa plateforme de données. Les missions incluent la conception et l'évolution de la plateforme, ainsi que la mise en place des flux de données. Un Bac +5 en informatique et 5 ans d'expérience en développement de données, notamment avec des outils comme Snowflake et Python, sont requis. Le poste est basé à Paris.

Qualifications

  • 5 ans d'expérience en développement et manipulation de données.
  • Maîtrise des pipelines ETL / ELT, ingestion et transformation.
  • Connaissance des services Cloud (AWS, Azure ou GCP).

Responsabilités

  • Conception, évolution et optimisation de la plateforme data.
  • Mise en place des flux de données.
  • Rédaction de la documentation technique.

Connaissances

Développement et manipulation de données
Python
SQL
Autonomie
Esprit d'analyse

Formation

Bac +5 en informatique, data ou ingénierie

Outils

Snowflake
Spark
Kafka
Docker
Description du poste
Vos missions principales :
  • Rattaché(e) au Data Platform Manager,
  • Conception, évolution et optimisation de la plateforme data (Snowflake),
  • Mise en place des flux de données (data pipelines),
  • Spécification technique des solutions à développer,
  • Rédaction de la documentation technique,
  • Veille technologique + proposer des axes d'amélioration continue,
  • Assurer la mise en qualité des données,
  • Assurer la mise en cohérence des données.
Compétences & formations :
  • Bac +5 en informatique, data ou ingénierie (école d'ingénieur ou Master spécialisé),
  • 5 ans en développement et manipulation de données (Python, SQL),
  • Maîtrise des pipelines ETL / ELT, ingestion et transformation,
  • Cloud (AWS, Azure ou GCP) : stockage, data warehouses, services managés,
  • Outils & frameworks : Spark, Kafka, Docker, Snowflake,
  • Modélisation : relationnelle, analytique (étoile, flocon, Data Vault), dimensionnelle, formats JSON / Parquet / Avro,
  • Autonomie, curiosité, esprit d'analyse,
  • Force de proposition.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.