Activez les alertes d’offres d’emploi par e-mail !

Ingénieur de données H/F

JR France

Paris

Sur place

EUR 55 000 - 75 000

Plein temps

Il y a 11 jours

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Rejoignez une entreprise innovante en tant que Data Engineer ! Vous travaillerez sur des projets captivants liés à la gestion de données massives et à l'optimisation de pipelines de données dans un environnement cloud. Si vous avez 6 à 9 ans d'expérience et une expertise en Python, PySpark et AWS, postulez dès aujourd'hui !

Prestations

rémunération compétitive
télétravail
mutuelle
participation annuelle

Qualifications

  • 6 à 9 ans d'expérience en tant que Data Engineer ou poste équivalent.
  • Expertise en Python, PySpark, et AWS.

Responsabilités

  • Concevoir, développer et maintenir des pipelines de données robustes.
  • Implémenter des solutions de traitement de données à grande échelle.

Connaissances

Python
PySpark
AWS
Soft skills

Outils

Docker
Kubernetes
Databricks

Description du poste

? Rejoignez une entreprise innovante et stimulez votre carrière en tant que Data Engineer !

Vous êtes passionné(e) par le traitement de données à grande échelle, les environnements cloud, et les technologies de pointe ? Nous avons le défi qu’il vous faut !

Nous recherchons un(e) Data Engineer expérimenté(e) pour rejoindre une mission aux forts enjeux, afin de travailler sur des projets captivants liés à la gestion de données massives et à l’ optimisation de pipelines de données dans un environnement cloud innovant.

? Qui sommes nous ? :

Degetel est une ESN qui regroupe environ 600 collaborateurs et qui accompagne ses clients sur des thématiques de transformation digitale dans les secteurs du luxe, de l'énergie, des télécommunications, du retail et de la finance.

  • Concevoir, développer et maintenir des pipelines de données robustes et performants.
  • Implémenter des solutions de traitement de données à grande échelle à l'aide de PySpark et Databricks .
  • Déployer, monitorer et optimiser les architectures cloud AWS pour assurer leur scalabilité et fiabilité.
  • Collaborer étroitement avec les équipes Data Science pour intégrer des modèles dans les workflows de données.
  • Assurer la qualité et la sécurité des données traitées, tout en veillant au respect des bonnes pratiques de gouvernance.
  • Effectuer une veille technologique pour proposer des améliorations et innover sur les projets.

? Stack technique :

  • Outils de CI/CD : Docker, Kubernetes (un plus).

? Profil recherché :

  • Expérience : 6 à 9 ans en tant que Data Engineer ou poste équivalent.
  • Compétences : Expertise avérée en Python , PySpark , et AWS . Bonne maîtrise de Databricks .
  • Atouts : Forte capacité à travailler en équipe et à résoudre des problèmes complexes dans des environnements techniques exigeants.
  • Soft skills : Autonomie, rigueur, esprit analytique et curiosité technologique.
  • Une expérience dans un environnement Big Data ou dans des projets à forte volumétrie est un réel plus.

? Ce que nous offrons :

  • Une entreprise qui valorise l’innovation et les idées de ses collaborateurs.
  • Un cadre de travail stimulant et des projets variés avec des défis techniques.
  • Un plan de formation continue pour rester à la pointe des technologies.
  • Des avantages attractifs (rémunération compétitive, télétravail, mutuelle, participation annuelle, etc.).
  • Une culture d’entreprise basée sur la collaboration, l’autonomie, et le partage.

N’attendez plus, rejoignez nous et devenez un acteur clé de l’avenir de la gestion des données avec Degetel. Postulez dès aujourd’hui !

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.