Sur ce poste, vous serez intégré(e) à une équipe de projet et participerez à la mise en place de projets Big Data en intervenant notamment sur les missions suivantes :
Analyser les besoins clients et formaliser les cas d’usages correspondants,
Participer activement à la conception et à la réalisation des solutions Big Data,
Développer des solutions d’ingestion de données depuis des sources multiples pour les déverser dans un data lake : Nifi, Sqoop, Kafka, … etc.
Passer de la donnée brute à de la donnée propre (inférer les schémas de données, nettoyer, normaliser et publier les données)
Consolider les données au fur et à mesure de leur alimentation récurrente dans le data lake.
Exploiter les résultats pour atteindre la finalité business : exposition de business view, réintégration des résultats dans le SI, service de scoring, …
Mettre en place et garantir le respect dans la durée d’un processus qualité sur l’ensemble du cycle de développement et d’industrialisation (documents, tests unitaires / intégration / fonctionnels, commentaires, versionning, etc.)
Industrialiser des pipelines d’analyse et de machine learning
Les compétences
Nous recherchons une personne diplômée :
D’un master spécialisé en Big Data
Ou d’un cycle ingénieur avec une spécialité Big Data
Pré-requis
Système & DevOps : Linux, Docker, Ansible, Jenkins, AWS, Openshift
Qualités indispensables : Curiosité, sens du partage, enthousiasme.
Vous souhaitez vous investir dans des projets innovants, faire partie d’une équipe jeune et sympathique, en perpétuelle évolution cette mission est pour vous.
Obtenez un examen gratuit et confidentiel de votre CV.
Sélectionnez le fichier ou faites-le glisser pour le déposer