Activez les alertes d’offres d’emploi par e-mail !

Dataops confirmé - H/F

Scalian

Neuilly-sur-Seine

Sur place

EUR 45 000 - 75 000

Plein temps

Il y a 13 jours

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise dynamique et innovante recherche un DataOps confirmé pour renforcer ses équipes sur des projets critiques en Big Data. Dans un environnement Agile SAFe, vous serez au cœur de l'industrialisation, du déploiement et du support de cas d'usage Big Data. Vous aurez l'opportunité de travailler avec des technologies modernes telles que Hadoop, Kafka et Spark, tout en garantissant la conformité et la sécurité des données. Rejoignez une équipe passionnée et contribuez à des projets ambitieux qui façonnent l'avenir des services numériques en France.

Prestations

Programme d'onboarding complet
Formations personnalisées
Événements internes
Prime de cooptation
Accord télétravail
Politique RSE ambitieuse

Qualifications

  • 2+ ans d'expérience en DataOps dans un environnement Big Data.
  • Bonne compréhension des enjeux de déploiement industriel et sécurité des données.

Responsabilités

  • Support et déploiement des usages Big Data en validation et production.
  • Garantir la cohérence des processus CI/CD et conformité RGPD.

Connaissances

DataOps
Big Data
Agile
CI/CD
Python
Scala
Shell
RGPD

Formation

Bac+4/5 en informatique

Outils

Hadoop
Kafka
Spark
Docker
Kubernetes
Git/GitLab
Jenkins
Ansible
Airflow
Tableau

Description du poste

Contexte de la mission :

Dans le cadre d’un projet stratégique au sein d’un grand groupe du secteur public, nous recherchons un DataOps confirmé pour accompagner les équipes projet dans l’industrialisation, le déploiement et le support de cas d’usage Big Data.

Vous interviendrez dans un environnement Agile SAFe, au sein d’une équipe structurée (Wagon) intégrée dans un Train Data, avec un périmètre technique moderne et distribué (Hadoop, Kafka, Spark, Docker, Kubernetes…).

Vos principales missions :

Activités principales (environ 70 %) :

  • Support au build, test, release et POC des usages Big Data du périmètre confié
  • Déploiement des cas d’usage en environnements de validation et de production
  • Garant de la cohérence des processus CI/CD et des règles de conformité (RGPD, sécurité)
  • Participation active aux cérémonies SAFe (Scrum of Scrums, PI Planning...)
  • Suivi de la capacité d’équipe et gestion des actions de remédiation technique

Activités secondaires (environ 30 %) :

  • Support de niveau 3 sur les incidents techniques/applicatifs liés aux déploiements
  • Analyse des causes racines (root cause analysis), REX, recommandations d’amélioration
  • Interface avec les équipes socles (infrastructure, sécurité, support transverse)

Profil recherché :

  • Expérience confirmée (2+ ans) sur des missions DataOps en environnement Big Data on-premise
  • Formation supérieure Bac+4/5 en informatique
  • Bonne compréhension des enjeux de déploiement industriel, data pipeline, intégration continue et sécurité des données
  • Aisance dans les environnements Agile / SAFe

Compétences techniques attendues :

  • Écosystèmes Big Data : Hadoop (Cloudera), Kafka, Spark
  • CI/CD et conteneurisation : Jenkins, Ansible, Docker, Kubernetes, Git/GitLab
  • Langages : Python, Shell, Scala
  • Bases de données : Hive, MySQL, PostgreSQL, Oracle, MariaDB
  • Supervision & Ordonnancement : Airflow, Centreon, Dynatrace, Prometheus, Grafana
  • Cloud / Infrastructure : OpenShift, VMware, Bare Metal, Azure, Databricks
  • Formats de données : JSON, CSV, XML, Parquet
  • Outils BI & Datascience : Tableau, Dataiku, Hue, Dremio
  • Outils complémentaires : Nginx, Nexus, Cyberwatch, NiFi, AWX
  • Règles de conformité : Bonne connaissance du RGPD

Description de l'entreprise

Dans le TOP10 des Sociétés de Conseil en Ingénierie en France, le Groupe SCALIAN intervient sur des activités de services en management de projets industriels, supply chain, architecture et développement de systèmes numériques embarqués, applicatifs de systèmes d'information et d'Intelligence artificielle dans des secteurs d’activité aussi variés que l’aéronautique, le spatial, l’automobile, le ferroviaire, les services, le luxe ou le retail etc.

Créée en 1989, SCALIAN compte aujourd’hui plus de 5500 collaborateurs répartis dans 11 pays et 15 implantations en France pour un chiffre d’affaires de 550 millions d’euros. SCALIAN travaille pour des grands Groupes du CAC40 sur des projets en AT ou au forfait.

Labellisée Great Place to Work, SCALIAN connait une croissance de 20% chaque année.

Pourquoi SCALIAN ?

  • Parce que Scalian vous accompagne dans le développement de votre carrière : programme d'onboarding complet sur 1 an avec votre manager et votre RH, programmes de formation personnalisés, communautés techniques, événements internes
  • Parce que Scalian favorise la Qualité de Vie au Travail : certifications Great Place to Work et Best Workplaces for Women, prime de cooptation, prime vacances, accord télétravail
  • Parce que Scalian développe une politique RSE concrète et ambitieuse : mobilité durable, actions environnementales, accord Handicap et mission handicap avec temps dédié

Qualifications

Profil recherché :

  • Expérience confirmée (+ 2 ans) sur des missions DataOps en environnement Big Data on-premise
  • Formation supérieure Bac+4/5 en informatique
  • Bonne compréhension des enjeux de déploiement industriel, data pipeline, intégration continue et sécurité des données
  • Aisance dans les environnements Agile / SAFe

Compétences techniques attendues :

  • Écosystèmes Big Data : Hadoop (Cloudera), Kafka, Spark
  • CI/CD et conteneurisation : Jenkins, Ansible, Docker, Kubernetes, Git/GitLab
  • Langages : Python, Shell, Scala
  • Bases de données : Hive, MySQL, PostgreSQL, Oracle, MariaDB
  • Supervision & Ordonnancement : Airflow, Centreon, Dynatrace, Prometheus, Grafana
  • Cloud / Infrastructure : OpenShift, VMware, Bare Metal, Azure, Databricks
  • Formats de données : JSON, CSV, XML, Parquet
  • Outils BI & Datascience : Tableau, Dataiku, Hue, Dremio
  • Outils complémentaires : Nginx, Nexus, Cyberwatch, NiFi, AWX
  • Règles de conformité : Bonne connaissance du RGPD

Informations supplémentaires

Vous êtes DataOps, avec une expérience concrète dans des environnements distribués et exigeants ? Rejoignez une mission ambitieuse à fort enjeu technique et métier.

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.