Activez les alertes d’offres d’emploi par e-mail !

Ingénieur DevOps Data0ps F/H F/H

Orange SA

Issy-les-Moulineaux

Sur place

EUR 45 000 - 65 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise innovante dans les technologies recherche un Ingénieur DevOps Data expérimenté pour renforcer son équipe technique. Vous serez impliqué dans le développement d'une plateforme de données territoriales, en travaillant sur Kubernetes, avec une collaboration étroite avec des Data Engineers et Data Scientists. Un solide bagage en automatisation et en CI/CD est requis. Ce poste offre l'opportunité d'avoir un impact significatif sur les politiques publiques et la qualité de vie des citoyens.

Qualifications

  • Excellente maîtrise de Kubernetes (multi-namespaces) et de Rancher.
  • Solide expérience avec ArgoCD et les principes GitOps.
  • Compétences en scripting Python et en automatisation.
  • À l’aise avec les environnements Linux et PostgreSQL.

Responsabilités

  • Concevoir et construire l’infrastructure basée sur Kubernetes.
  • Automatiser le déploiement des briques de l’écosystème Data.
  • Définir et implémenter les bonnes pratiques DevOps appliquées à la Data.
  • Mettre en place les outils de monitoring et d’alerting.

Connaissances

Kubernetes
ArgoCD
Python
CI/CD
Linux
PostgreSQL
MinIO
Data pipelines
Description du poste
about the role

Votre rôle

Rejoignez HexaDone ! nous recherchons un·e Ingénieur·e DevOps Data expérimenté·e pour renforcer notre équipe technique et accompagner le développement de notre plateforme de données territoriales, innovante et souveraine.

Votre mission chez HexaDone HexaDone est une joint-venture entre Orange et la Banque des Territoires, dont la vocation est d’aider les collectivités locales à mieux exploiter leurs données, pour améliorer les politiques publiques et le cadre de vie des citoyens. Dans le cadre du renforcement de notre pôle Data, nous recherchons un Ingénieur DevOps/DataOps pour piloter le déploiement, la maintenance et l’optimisation de notre infrastructure basée sur Kubernetes. Le Projet est un mélange de Build et de Run, vous serez un acteur clé dans les choix d’architecture, la mise en place des pipelines CI/CD, et le déploiement des outils Data sur Kubernetes.

En résumé :

  • Projet de construction d’une plateforme Data sur Kubernetes
  • Collaboration étroite avec des profils Data Engineers, Data Scientists et Développeurs
  • Méthodologie Agile
  • Environnement technique moderne, centré sur l’automatisation, la scalabilité et la fiabilité

Missions principales

  • Concevoir et construire l’infrastructure/la plateforme Data basée sur Kubernetes
  • Participer aux choix d’architecture technique (infrastructure, stockage, sécurité, CI/CD, monitoring, …)
  • Automatiser le déploiement des briques de l’écosystème Data : (Spark, Kafka, JupyterHub, Trino, OpenMetadata, dbt, MinIO, Postgresql, …) via Helm + Kustomize
    Mettre en place les pipelines CI/CD et les pratiques GitOps (GitLab CI, ArgoCD, Argo Workflows, Argo Events)
  • Définir et implémenter les bonnes pratiques DevOps appliquées à la Data : tests, observabilité, gouvernance, reproductibilité
  • Gérer les aspects sécurité, gestion fine des droits et authentification (OPA, Keycloak, RBAC, namespaces Kubernetes)
  • Mettre en place les outils de monitoring et d’alerting (Prometheus, Grafana)
  • Travailler en étroite collaboration avec les équipes Data Engineering et Développement pour répondre à leurs besoins
  • Être force de proposition sur les technologies, les patterns d’automatisation et les optimisations futures
  • Avoir déjà rencontré et adressé les limites, bottlenecks ou problématiques de performance sur des outils comme Trino, Spark, Kafka ou MinIO est un véritable atout
about you

Votre profil

Vos hard skills

  • Excellente maîtrise de Kubernetes (multi-namespaces) et de Rancher
  • Solide expérience avec ArgoCD et les principes GitOps
  • Très bonnes compétences en scripting Python et en automatisation
  • Connaissance des pipelines CI/CD et des Argo Workflows
  • À l’aise avec les environnements Linux, PostgreSQL et le stockage objet (MinIO)
  • Familiarité avec JupyterHub et les environnements utilisés par les data scientists
  • Capacité à assurer la scalabilité, la sécurité et la performance d’une infrastructure data

Vos soft skills

  • Curieux et toujours prêt à apprendre
  • Autonome, rigoureux·se et orienté·e solution
  • Esprit d’équipe et goût pour le partage de connaissances
  • Sens des responsabilités et ownership de vos sujets
  • À l’aise dans un environnement collaboratif et multidisciplinaire
  • Envie de contribuer à un projet à impact au service des territoires
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.