
Activez les alertes d’offres d’emploi par e-mail !
Générez un CV personnalisé en quelques minutes
Décrochez un entretien et gagnez plus. En savoir plus
Une entreprise innovante recherche un Ingénieur DevOps/DataOps pour piloter le déploiement et l'optimisation de son infrastructure basée sur Kubernetes. Vous travaillerez sur la construction d'une plateforme de données, en collaboration avec des équipes multidisciplinaires. Les candidats doivent avoir une solide expérience avec Kubernetes, ArgoCD, et être à l'aise dans un environnement collaboratif. Ce rôle est essentiel pour garantir la scalabilité et la sécurité des outils de données.
Rejoignez HexaDone ! nous recherchons un
HexaDone est une joint-venture entre Orange et la Banque des Territoires, dont la vocation est d'aider les collectivités locales à mieux exploiter leurs données, pour améliorer les politiques publiques et le cadre de vie des citoyens.
Dans le cadre du renforcement de notre pôle Data, nous recherchons un Ingénieur DevOps / DataOps pour piloter le déploiement, la maintenance et l'optimisation de notre infrastructure basée sur Kubernetes.
Le Projet est un mélange de Build et de Run, vous serez un acteur clé dans les choix d'architecture, la mise en place des pipelines CI / CD, et le déploiement des outils Data sur Kubernetes.
Concevoir et construire l'infrastructure / la plateforme Data basée sur Kubernetes.
Participer aux choix d'architecture technique (infrastructure, stockage, sécurité, CI / CD, monitoring).
Automatiser le déploiement des briques de l'écosystème Data : (Spark, Kafka, JupyterHub, Trino, OpenMetadata, dbt, MinIO, Postgresql) via Helm + Kustomize.
Mettre en place les pipelines CI / CD et les pratiques GitOps (GitLab CI, ArgoCD, Argo Workflows, Argo Events).
Définir et implémenter les bonnes pratiques DevOps appliquées à la Data : tests, observabilité, gouvernance, reproductibilité.
Gérer les aspects sécurité, gestion fine des droits et authentification (OPA, Keycloak, RBAC, namespaces Kubernetes).
Mettre en place les outils de monitoring et d'alerting (Prometheus, Grafana).
Travailler en étroite collaboration avec les équipes Data Engineering et Développement pour répondre à leurs besoins.
Être force de proposition sur les technologies, les patterns d'automatisation et les optimisations futures.
Avoir déjà rencontré et adressé les limites, bottlenecks ou problématiques de performance sur des outils comme Trino, Spark, Kafka ou MinIO est un véritable atout.
Excellente maîtrise de Kubernetes (multi-namespaces) et de Rancher.
Solide expérience avec ArgoCD et les principes GitOps.
Très bonnes compétences en scripting Python et en automatisation.
Connaissance des pipelines CI / CD et des Argo Workflows.
À l'aise avec les environnements Linux, PostgreSQL et le stockage objet (MinIO).
Familiarité avec JupyterHub et les environnements utilisés par les data scientists.
Capacité à assurer la scalabilité, la sécurité et la performance d'une infrastructure data.
Curieux et toujours prêt à apprendre.
Autonome, rigoureux
se et orienté
e solution
Esprit d'équipe et goût pour le partage de connaissances.
Sens des responsabilités et ownership de vos sujets.
À l'aise dans un environnement collaboratif et multidisciplinaire.
Envie de contribuer à un projet à impact au service des territoires.