Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Data Engineer - Python - Pyspark - Databricks Cloud Aws H / F

Nes Fircroft

Malakoff

Hybride

EUR 45 000 - 60 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise innovante à Malakoff recherche un Data Engineer pour rejoindre des squads agiles. Vous serez responsable de la collecte des besoins, de la conception de l'architecture de données et du développement de pipelines. L'expertise en Python, PySpark et AWS est essentielle. Ce rôle implique 2 jours de télétravail par semaine et nécessite une expérience de 3 à 5 ans dans le domaine. Rejoignez une organisation dynamique pour transformer des données en solutions adaptées aux projets internationaux.

Qualifications

  • 3 à 5 ans minimum en ingénierie de données.
  • Expérience dans des environnements cloud et big data.
  • Connaissance des bonnes pratiques de mise en production et monitoring des pipelines.

Responsabilités

  • Collecter les besoins métiers et utilisateurs.
  • Concevoir l'architecture de données.
  • Développer et mettre en production des pipelines de données.
  • Assurer la maintenance et l'évolution des solutions déployées.

Connaissances

Python
PySpark
Databricks
AWS
Anglais professionnel
Description du poste

Lieu : Paris

Début de mission :

Télétravail : 2 jours par semaine (présence obligatoire sur site 3 jours)

Contexte

Nous recherchons un Data Engineer pour rejoindre une organisation digitale innovante, composée de plusieurs squads agiles, qui conçoit et déploie des solutions digitales à grande échelle pour des projets internationaux. L'objectif : accélérer la production interne de solutions data et cloud pour accompagner la transformation numérique.

Vos missions
  • Collecter les besoins métiers et utilisateurs
  • Concevoir l'architecture de données
  • Développer et mettre en production des pipelines de données
  • Assurer la maintenance et l'évolution des solutions déployées
Compétences techniques clés
  • Python (expert) : Développement avancé, automatisation, intégration dans des pipelines.
  • PySpark (expert) : Traitement de données distribuées, optimisation des performances.
  • Databricks (avancé) : Création de notebooks, orchestration de workflows, intégration avec Spark.
  • AWS (avancé) : Services orientés data (S3, Glue, EMR, Lambda), bonnes pratiques cloud.
  • Anglais professionnel : Capacité à échanger avec des équipes internationales.
Soft Skills
  • Esprit analytique : Capacité à comprendre les besoins métiers et les traduire en solutions techniques.
  • Autonomie & proactivité : Force de proposition pour améliorer les pipelines et architectures.
  • Collaboration : Travail en équipe agile (Scrum / Kanban), communication claire.
Expérience attendue
  • 3 à 5 ans minimum en ingénierie de données.
  • Expérience dans des environnements cloud et big data.
  • Connaissance des bonnes pratiques de mise en production et monitoring des pipelines.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.