Activez les alertes d’offres d’emploi par e-mail !

DataOps F / H F / H

La Poste Groupe

Issy-les-Moulineaux

Sur place

EUR 20 000 - 40 000

Plein temps

Il y a 24 jours

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Description du poste

Numérique / IT / SI

mission

Au sein de la DSI de la branche Grand Public et Numérique, au sein de la Direction Data et IA Factory, nous recherchons un DataOps (F / H).

Le périmètre applicatif de l'intervention est le suivant :

  • Un Datalake Cloudera en production, ingérant quotidiennement près de 550 datasets en provenance d'une cinquantaine de sources (froides et chaudes), supportant des usages financiers, commerciaux et opérationnels critiques pour le groupe La Poste.
  • Les différents environnements d'homologation, de lab datascience et de pré-production.

Les outils associés (ordonnanceur, briques d'ingestion, de normalisation et de publication, applications de data visualisation, pipelines CI/CD, ...).

Vos principales activités seront les suivantes :

  1. Supporter son Wagon dans les phases Build-Test-Release-support, POC, industrialisation des usages clients Big Data.
  2. Réaliser les déploiements (Hors Socle) pour les usages du Wagon auquel il a été délégué, dans les environnements de production.
  3. Réaliser les déploiements dans les environnements de validation.
  4. Être le garant, au sein de son Wagon, de la cohérence des processus CI/CD (Hors Socle) et des autres règles de conformité Data en vigueur à la Poste (RGPD).
  5. Participation (en présentiel) aux cérémonies SAFe de son Wagon et du train DATA.
  6. S'assurer de la bonne mesure de la capacité à traiter.

Télétravail : Oui

Temps de travail hebdomadaire : 39 heures

profil

  • Environnements distribués : Écosystème Hadoop, de préférence Cloudera.
  • Kafka, CFT.
  • Spark.
  • Outils de développement / déploiement / intégration : Ansible, Jenkins, Docker, Kubernetes.
  • Programmation : Python et connaissance des librairies.
  • Bases de données : Hive, MySQL, PostGreSQL, environnements distribués.
  • Outils de datascience : Dataiku.
  • Ordonnanceurs : Airflow.
  • Expérience Infrastructure : OpenShift, BareMetal.
  • Data Viz & Accélérateur : Tableau, Hue, Dremio.
  • Programmation : Scala.
  • Bases de données : Oracle, MariaDB.
  • Format de données : Json, csv, xml, Parquet.
  • Jenkins, Nexus, Docker, Nginx.
  • Logiciel de supervision : Centreon, Dynatrace, Prometheus, Grafana.
  • Git / GitLab.
  • VMware.
  • Shell / Linux / Python.
  • Connaissance des principes RGPD.
  • Cyberwatch.
  • Azure.
  • AWX / Ansible ou Logiciel de Gestion de Flux de données tel NIFI.

Expérience des méthodologies SAFe.

Formation et expérience

De formation supérieure type BAC+5 (écoles d'ingénieurs et / ou parcours universitaires), vous avez une expérience en rapport avec les éléments décrits ci-dessous :

Savoir démontrer une capacité à travailler dans un environnement Agile.

Expérience supérieure à 2 ans sur les technologies On-premise.

Capacité de travailler dans un environnement complexe (type grand groupe).

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.