Objectifs
- Consolider des sources hétérogènes de données IT.
- Modéliser des bundles de données fiables et structurés.
- Valoriser les données via des traitements métiers avancés.
- Restituer les résultats sous forme d'indicateurs pertinents, accessibles via des tableaux de bord dynamiques.
Principales activités
- Recueil et analyse des besoins fonctionnels, traduction en règles de gestion et en spécifications techniques "data".
- Modélisation de bundles de données robustes, scalables et performants.
- Valorisation des données via des traitements métier dans Dataiku (graphique + code Python / PySpark).
- Conception d\'indicateurs clés et déploiement au sein de la plateforme Qlik Sense.
- Réalisation de démonstrations fonctionnelles et présentations pour les parties prenantes.
- Rédaction de documentation technique et participation à la recette fonctionnelle.
- Accompagnement à la maintenabilité et aux évolutions des solutions mises en œuvre.
Environnement technique
- Apache Hive (entrepôt de données - Hadoop).
- Dataiku (data prep, data science - interface graphique + Python / PySpark).
- Qlik Sense (data visualization, dashboards).
- Git, SQL, Jira, Confluence.
Compétences linguistiques
- Anglais niveau B2 / C1 requis (échanges réguliers avec des équipes internationales).
- Expérience confirmée en projets Data (ingénierie, modélisation, data science légère).
- Maîtrise des outils Dataiku, Hive / Hadoop, et Qlik Sense.
- Bonne capacité à communiquer, formaliser les besoins et présenter les résultats.
- Autonomie, rigueur, esprit d\'analyse.