Activez les alertes d’offres d’emploi par e-mail !

Cybersecurity Risk Engineer

Renault Group

Boulogne-Billancourt

Sur place

EUR 45 000 - 75 000

Plein temps

Il y a 30+ jours

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise innovante recherche un Data Engineer pour rejoindre une équipe dynamique dédiée à la gestion des données. Dans ce rôle, vous serez responsable de la gestion et de l'évolution d'un datalake centralisé, permettant le stockage et l'analyse de grandes quantités de données. Vous travaillerez avec des technologies de pointe telles que Spark, Hadoop et Jenkins, tout en collaborant avec des équipes IT et métiers pour optimiser les processus de données. Si vous êtes passionné par les données et souhaitez contribuer à des projets de grande envergure, cette opportunité est faite pour vous.

Qualifications

  • Expérience en gestion de la production et de la dette technique.
  • Compétences en développement d'applications avec Spark et Hadoop.

Responsabilités

  • Gérer la production et la dette technique du datalake RiskLake.
  • Proposer des évolutions de l'architecture actuelle.

Connaissances

Spark
PySpark
Scala
Hadoop
Hive
SQL
HQL
Starburst
Indexima
Jenkins
Unix
Bash
Jira
Pipeline CI/CD
XLDeploy
XLRelease

Outils

Jenkins
Jira
XLDeploy
XLRelease

Description du poste

Description de poste

La mission va se dérouler au sein du département IT Data Management & Business Intelligence, plus précisément dans l'équipe Big Data & API / Squad Financing & Risk. Cette équipe est actuellement responsable du développement et de la gestion d'un datalake nommé RiskLake. Ce datalake sert de plateforme de données centralisée pour les équipes IT et métiers. Il permet de stocker, traiter et analyser de grandes quantités de données de manière efficace et sécurisée.

L'objectif principal de la mission est d'assurer le rôle de Data Engineer pour le RiskLake. Les responsabilités incluent :

  1. Gestion de la production
  2. Gestion de la dette technique
  3. Revoir l'architecture actuelle et proposer des évolutions
  4. Développements liés aux projets

Profil candidat :

Technologies utilisées :

  • Spark : Framework de calcul distribué pour le traitement de grandes quantités de données.
  • PySpark : API Python pour Spark, permettant d'écrire des applications Spark en Python.
  • Scala : Langage de programmation utilisé pour le développement d'applications Spark.
  • Hadoop : Framework pour le stockage et le traitement de grandes quantités de données sur une infrastructure on-premise.
  • Hive : Data warehouse pour Hadoop, permettant de requêter et gérer de grandes bases de données.
  • SQL / HQL : Langages de requête pour interroger les bases de données relationnelles et Hive.
  • Starburst : Moteur de requête SQL pour les données big data.
  • Indexima : Plateforme de gestion de données en temps réel.
  • Jenkins : Outil d'automatisation pour les pipelines CI / CD.
  • Unix / Bash : Système d'exploitation et langage de script pour l'administration système.
  • Jira : Outil de gestion de projet et de suivi des bugs.
  • Pipeline CI / CD : Processus d'intégration et de déploiement continus.
  • XLDeploy / XLRelease : Outils de déploiement et de gestion des releases pour les applications.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.