Activez les alertes d’offres d’emploi par e-mail !

DATAIKU : Data engineer (Python & Spark & Scala & AWS & NoSQL ) (IT) / Freelance

WINSIDE Technology

Paris

Sur place

EUR 50 000 - 70 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Résumé du poste

Une société technologique recherche un consultant avec une solide expérience sur Dataiku pour optimiser les flux de données et assurer la performance des projets. Vous aurez pour mission de définir et analyser les structures de données, et de développer des solutions adaptées. Une bonne maîtrise des technologies Big Data et des langages de programmation comme Python, Scala, et Java est requise.

Qualifications

  • Expérience technique avancée sur Dataiku et son écosystème.
  • Développement et maintien du continuous delivery avec intégration continue.
  • Maîtrise des exigences du RGPD et des standards en vigueur.

Responsabilités

  • Définir et analyser les structures de données.
  • Contribuer à interconnecter et collecter les données.
  • Mise à disposition de la data aux systèmes externes.

Connaissances

Agilité
Force de proposition
Autonomie
Bonne capacité à travailler en équipe
Esprit d’analyse et de synthèse

Outils

Dataiku
Python
Scala
Java
SPARK
NoSQL
Description du poste
Contexte

un consultant avec une bonne expérience technique avancée sur Dataiku et son écosystème, afin :

  • d ?améliorer la performance des flows,
  • d ?optimiser l?industrialisation des projets,
  • d?assurer un rôle de pilotage responsable de la performance et des coûts,

et de fluidifier la mise à disposition des données vers les outils d?activation marketing (Salesforce, Adobe Campaign, Weborama?).

Depuis 2022, la direction Perf & Data s?appuie sur Dataiku pour accélérer ses études, modélisations statistiques et reportings sur les clients / utilisateurs.

L?infrastructure sous-jacente est intégralement hébergée dans le cloud AWS (stockage parquet sur bucket S3 et compute Spark via cluster Kubernetes).

Responsabilités
  • Définition et analyse des structures de données.
  • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données.
  • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données).
  • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.).
  • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire).
  • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés).
  • Présentation et explication des réalisations à des publics métiers et techniques.
Langages et technologies

Langage de programmation (PYTHON, SCALA et / ou JAVA)

Maîtrise de technologies Big Data : développement SPARK, outils d'extraction de la donnée (workflows SPARK) et outils de stockage (stockage objet / base relationnelle / NoSQL).

Profil recherché / Qualités
  • Agilité.
  • Force de proposition.
  • Autonomie.
  • Bonne capacité à travailler en équipe.
  • Esprit d’analyse et de synthèse.
Profil candidat

Langage de programmation (PYTHON, SCALA et / ou JAVA).

Maîtrise de technologies Big Data : développement SPARK, outils d'extraction de la donnée (workflows SPARK) et outils de stockage (stockage objet / base relationnelle / NoSQL).

  • Agilité.
  • Force de proposition.
  • Autonomie.
  • Bonne capacité à travailler en équipe.
  • Esprit d’analyse et de synthèse.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.