Activez les alertes d’offres d’emploi par e-mail !

Consultant Architecte Big Data (h/f)

Neurones

Île-de-France

Sur place

EUR 50 000 - 70 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Résumé du poste

Une entreprise de conseil recherche un Consultant Architecte Hadoop pour intervenir auprès de clients du secteur bancaire. Vous serez chargé de l'audit des architectures existantes, de la réalisation d'analyses et de la définition des meilleures pratiques dans un environnement Big Data. Une expérience dans le domaine Big Data ainsi qu'une formation Bac +5 sont requises. Rejoignez une équipe dynamique dédiée à l'innovation.

Qualifications

  • Expérience dans le domaine du Big Data requise.
  • Connaissances en Hadoop, Spark, Kafka, et autres outils Big Data.
  • Capacité à travailler en équipe et à respecter les délais.

Responsabilités

  • Réalisation d’audit d’architecture existante.
  • Traduction des fonctions applicatives en fonctions techniques.
  • Validation des technologies choisies au travers de projets pilotes.
  • Favoriser la montée en compétence des équipes sur les sujets Big Data.

Connaissances

Hadoop (développement et/ou administration)
Kafka
Spark
HBase
Cassandra
Hive

Formation

Bac +5, Ecole d’Ingénieurs ou équivalent
Description du poste
Overview

En tant que Consultant Architecte Hadoop pour l’un des clients de NEURONES du secteur bancaire, vous interviendrez sur différentes problématiques métiers : détection de fraude, lutte anti-blanchiment, analytiques temps-réel, centralisation des indicateurs de risque.

Responsibilities
  • Réalisation d’audit d’architecture existante
  • Réalisation de Gap Analysis et préconisations
  • Traduction des fonctions applicatives en fonctions techniques sur l’architecture choisie
  • Sélection des composants à mettre en œuvre
  • Validation des technologies choisies au travers de projets pilotes
  • Définition des environnements de développement et des bonnes pratiques
  • Rédaction de documents techniques d’architecture
  • Favoriser la montée en compétence des équipes sur les sujets Big Data : formations, ateliers
Environnements techniques

Vous interviendrez au sein des environnements techniques suivants : Hadoop (HDFS, YARN, MapReduce), Spark, Parquet, Kafka et HBase sur les distributions Hortonworks, Cloudera ou MapR.

Organisation de projets

Vous organiserez les projets avec les contributeurs et sponsors associés : roadmap, animation des sprints… et préparerez et animererez réunions et comités.

Profil du candidat

Compétences techniques :

  • Hadoop (développement et/ou administration) : HDFS, YARN, MapReduce
  • Kafka, Spark, Storm, Hbase, Cassandra, Hive, Pig, Avro, Parquet, ELK, Knox, Ranger, Oozie

Vous avez une expérience sur la distribution de Hortonworks Cloudera et/ou MapR.

Expérience

Une première expérience (personnelle ou professionnelle) dans le domaine du Big Data est requise.

Formation

Bac +5, Ecole d’Ingénieurs ou équivalent.

Qualités

Organisé(e), vous savez travailler en équipe et respecter les délais.

Un autre poste à pourvoir vous correspond peut-être mieux ?...

...ou faites-nous part du poste que vous recherchez !

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.