Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Développeur Big Data Senior - # H / F

Astek

Nice

Sur place

EUR 45 000 - 60 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise de technologie cherche un professionnel expérimenté pour rejoindre son équipe à Nice. Vous travaillerez avec des technologies comme Hadoop, Spark et Java pour la gestion et l'analyse de données. Vos missions incluront le suivi des performances, la scalabilité des solutions Big Data, et l'implémentation de mécanismes de sécurité. Le candidat idéal aura un diplôme d'ingénieur (Bac +5), une expérience de 5 ans minimum, une maîtrise de l'anglais, et des connaissances en GCP et migrations Hadoop/Spark.

Qualifications

  • Doit avoir un diplôme d'ingénieur avec un niveau Bac +5.
  • Maîtrise de l'anglais à un niveau courant requise.
  • Expérience d'au moins 5 ans dans le domaine.
  • Bonne connaissance de l'environnement GCP et des migrations Hadoop/Spark.

Responsabilités

  • Suivre les performances des traitements et ajuster les configurations.
  • Assurer la scalabilité des solutions Big Data.
  • Implémenter des mécanismes de sécurité pour contrôler l'accès aux données.
  • Chiffrer et protéger les données sensibles.

Connaissances

Hadoop
Spark
Java
Gestion des données
Analyse de données
Anglais courant

Formation

Diplôme d'ingénieur (Bac +5)

Outils

GCP
Description du poste
Votre mission (si vous l'acceptez !)

Au sein de notre équipe, vous serez amené à travailler avec des technologies comme Hadoop, Spark et Java et serez impliqué dans la gestion et l'analyse de grandes quantités de données.

Votre quotidien sera rythmé par :
  • La Surveillance des performances : Suivre les performances des traitements, ajuster les configurations du cluster Hadoop ou Spark, et optimiser les jobs pour réduire les temps de traitement et les coûts.
  • La Scalabilité : Assurer que les solutions Big Data peuvent évoluer au fur et à mesure que les volumes de données augmentent.

Assurer la sécurité des données et la conformité aux réglementations (comme le RGPD en Europe) est également crucial pour :

  • La Gestion des accès : Implémenter des mécanismes de sécurité pour contrôler l'accès aux données et garantir que les utilisateurs autorisés peuvent accéder à certaines ressources dans l'écosystème Hadoop ou Spark.
  • Le Chiffrement et protection des données sensibles.
Environnement technique :

Java, Hadoop, Spark, GCP.

Votre future équipe :

Vous intégrerez une équipe SCRUM de 6 personnes.

Vous :
  • avez un diplôme d'ingénieur (niveau Bac +5) ;
  • maîtrisez l'anglais de manière courante ;
  • avez une expérience de minimum 5 années.
  • avez une bonne connaissance de l'environnement GCP et la réalisation d'une migration Hadoop / Spark dans GCP
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.