Activez les alertes d’offres d’emploi par e-mail !

Data Analyst Datatracker H / F

TOHTEM

Toulouse

Sur place

EUR 40 000 - 55 000

Plein temps

Il y a 30+ jours

Résumé du poste

Une entreprise de technologie à Toulouse recherche un professionnel pour consolider des sources hétérogènes de données IT et modéliser des bundles de données. Le candidat idéal doit avoir une maîtrise des outils tels que Dataiku et Qlik Sense, et un bon niveau d'anglais. Ce poste exige autonomie et rigueur, avec des responsabilités centrées sur l'analyse des besoins fonctionnels et la valorisation des données.

Qualifications

  • Expérience confirmée en projets Data (ingénierie, modélisation, data science légère).
  • Bonne capacité à communiquer, formaliser les besoins et présenter les résultats.

Responsabilités

  • Recueil et analyse des besoins fonctionnels.
  • Modélisation de bundles de données robustes.
  • Valorisation des données via des traitements métier dans Dataiku.
  • Conception d'indicateurs clés et déploiement dans Qlik Sense.
  • Rédaction de documentation technique.

Connaissances

Anglais niveau B2 / C1
Autonomie
Rigueur
Esprit d'analyse

Outils

Dataiku
Apache Hive
Qlik Sense
Git
SQL
Jira
Confluence
Description du poste
Objectifs
  • Consolider des sources hétérogènes de données IT.
  • Modéliser des bundles de données fiables et structurés.
  • Valoriser les données via des traitements métiers avancés.
  • Restituer les résultats sous forme d'indicateurs pertinents, accessibles via des tableaux de bord dynamiques.
Principales activités
  • Recueil et analyse des besoins fonctionnels, traduction en règles de gestion et en spécifications techniques "data".
  • Modélisation de bundles de données robustes, scalables et performants.
  • Valorisation des données via des traitements métier dans Dataiku (graphique + code Python / PySpark).
  • Conception d\'indicateurs clés et déploiement au sein de la plateforme Qlik Sense.
  • Réalisation de démonstrations fonctionnelles et présentations pour les parties prenantes.
  • Rédaction de documentation technique et participation à la recette fonctionnelle.
  • Accompagnement à la maintenabilité et aux évolutions des solutions mises en œuvre.
Environnement technique
  • Apache Hive (entrepôt de données - Hadoop).
  • Dataiku (data prep, data science - interface graphique + Python / PySpark).
  • Qlik Sense (data visualization, dashboards).
  • Git, SQL, Jira, Confluence.
Compétences linguistiques
  • Anglais niveau B2 / C1 requis (échanges réguliers avec des équipes internationales).
  • Expérience confirmée en projets Data (ingénierie, modélisation, data science légère).
  • Maîtrise des outils Dataiku, Hive / Hadoop, et Qlik Sense.
  • Bonne capacité à communiquer, formaliser les besoins et présenter les résultats.
  • Autonomie, rigueur, esprit d\'analyse.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.