Activez les alertes d’offres d’emploi par e-mail !

Ingénieur DevOps Data0ps F/H

Orange SA

Issy-les-Moulineaux

Sur place

EUR 45 000 - 60 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une joint-venture innovante recherche un Ingénieur·e DevOps Data pour renforcer l'équipe technique et optimiser la plateforme de données. Vous serez responsable de la construction et de la maintenance de l'infrastructure basée sur Kubernetes, tout en collaborant avec des Data Engineers et Data Scientists. Ce poste offre une opportunité unique d'influencer les politiques publiques à travers une gestion des données efficace.

Qualifications

  • Excellente maîtrise de Kubernetes (multi-namespaces) et de Rancher.
  • Solide expérience avec ArgoCD et les principes GitOps.
  • Capacité à assurer la scalabilité, la sécurité et la performance d’une infrastructure data.

Responsabilités

  • Concevoir et construire la plateforme Data basée sur Kubernetes.
  • Automatiser le déploiement des outils Data via Helm + Kustomize.
  • Mettre en place les outils de monitoring et d’alerting.

Connaissances

Kubernetes
Automatisation
Scripting Python
ArgoCD
CI/CD
PostgreSQL
Linux
Description du poste
about the role

Votre rôle

Rejoignez HexaDone ! nous recherchons un·e Ingénieur·e DevOps Data expérimenté·e pour renforcer notre équipe technique et accompagner le développement de notre plateforme de données territoriales, innovante et souveraine.

Votre mission chez HexaDone HexaDone est une joint-venture entre Orange et la Banque des Territoires, dont la vocation est d’aider les collectivités locales à mieux exploiter leurs données, pour améliorer les politiques publiques et le cadre de vie des citoyens. Dans le cadre du renforcement de notre pôle Data, nous recherchons un Ingénieur DevOps/DataOps pour piloter le déploiement, la maintenance et l’optimisation de notre infrastructure basée sur Kubernetes. Le Projet est un mélange de Build et de Run, vous serez un acteur clé dans les choix d’architecture, la mise en place des pipelines CI/CD, et le déploiement des outils Data sur Kubernetes.

En résumé :

  • Projet de construction d’une plateforme Data sur Kubernetes
  • Collaboration étroite avec des profils Data Engineers, Data Scientists et Développeurs
  • Méthodologie Agile
  • Environnement technique moderne, centré sur l’automatisation, la scalabilité et la fiabilité

Missions principales

  • Concevoir et construire l’infrastructure/la plateforme Data basée sur Kubernetes
  • Participer aux choix d’architecture technique (infrastructure, stockage, sécurité, CI/CD, monitoring, …)
  • Automatiser le déploiement des briques de l’écosystème Data : (Spark, Kafka, JupyterHub, Trino, OpenMetadata, dbt, MinIO, Postgresql, …) via Helm + Kustomize
    Mettre en place les pipelines CI/CD et les pratiques GitOps (GitLab CI, ArgoCD, Argo Workflows, Argo Events)
  • Définir et implémenter les bonnes pratiques DevOps appliquées à la Data : tests, observabilité, gouvernance, reproductibilité
  • Gérer les aspects sécurité, gestion fine des droits et authentification (OPA, Keycloak, RBAC, namespaces Kubernetes)
  • Mettre en place les outils de monitoring et d’alerting (Prometheus, Grafana)
  • Travailler en étroite collaboration avec les équipes Data Engineering et Développement pour répondre à leurs besoins
  • Être force de proposition sur les technologies, les patterns d’automatisation et les optimisations futures
  • Avoir déjà rencontré et adressé les limites, bottlenecks ou problématiques de performance sur des outils comme Trino, Spark, Kafka ou MinIO est un véritable atout
about you

Votre profil

Vos hard skills

  • Excellente maîtrise de Kubernetes (multi-namespaces) et de Rancher
  • Solide expérience avec ArgoCD et les principes GitOps
  • Très bonnes compétences en scripting Python et en automatisation
  • Connaissance des pipelines CI/CD et des Argo Workflows
  • À l’aise avec les environnements Linux, PostgreSQL et le stockage objet (MinIO)
  • Familiarité avec JupyterHub et les environnements utilisés par les data scientists
  • Capacité à assurer la scalabilité, la sécurité et la performance d’une infrastructure data

Vos soft skills

  • Curieux et toujours prêt à apprendre
  • Autonome, rigoureux·se et orienté·e solution
  • Esprit d’équipe et goût pour le partage de connaissances
  • Sens des responsabilités et ownership de vos sujets
  • À l’aise dans un environnement collaboratif et multidisciplinaire
  • Envie de contribuer à un projet à impact au service des territoires
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.