Activez les alertes d’offres d’emploi par e-mail !

Data Engineer (H / F)

Extia

Bordeaux

Sur place

EUR 40 000 - 55 000

Plein temps

Il y a 3 jours
Soyez parmi les premiers à postuler

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise dynamique recherche un spécialiste en analyse de données pour rejoindre son équipe à Bordeaux. Vous travaillerez sur des projets innovants en collaboration avec des Data Scientists, en intégrant des sources de données et en exécutant des processus ETL. Ce poste nécessite une solide expérience en programmation, ainsi qu'une maîtrise des outils de données et des environnements cloud.

Qualifications

  • Expérience en ETL, Data mining, Machine learning, Big Data.
  • Compétences en Python et R, connaissance de Java, Scala ou SAS est un plus.
  • Familiarité avec Linux et outils de stockage volumineux.

Responsabilités

  • Participer à la définition des besoins et à la rédaction des User Stories.
  • Collaborer avec les Data Scientists au développement des modules d’analyse de données.
  • Concevoir et construire des architectures de données.
  • Intégrer des sources de données.
  • Assurer l'accessibilité et l'exploitation des données.
  • Exécuter des processus ETL à partir de données complexes.

Connaissances

ETL
Data mining
Machine learning
Big Data
Théorie des graphes
Analyse statistique
Python
R
Java
Scala
SAS
Linux
HDFS
Data Lake
S3
Stockage Blob
AWS
GCP
Streaming temps réel

Description du poste

Vous êtes habitué à travailler aussi bien avec des méta-données qu’avec des données non-structurées. À cet effet, vous maîtrisez un ou plusieurs des concepts suivants : l’ETL, le Data mining, le Machine learning, les Big Data ou encore la Théorie des graphes.

Vous maîtrisez les bases de l’analyse statistique.

Vous êtes apte à rédiger des scripts en Python et/ou R, et une connaissance d'autres langages de programmation comme Java, Scala ou SAS est un plus.

Vous êtes familiarisé avec l’environnement Linux.

Une expérience avec les outils de stockage de fichiers volumineux (HDFS, Data Lake, S3, stockage Blob), la connaissance des infrastructures cloud AWS ou GCP, et des bases en streaming temps réel seront aussi de réels atouts.

Voici les responsabilités principales :

  • Participer à la définition des besoins et à la rédaction des User Stories.
  • Collaborer avec les Data Scientists au développement des modules d’analyse de données.
  • Concevoir et construire des architectures de données.
  • Intégrer des sources de données.
  • Assurer que les données sont facilement accessibles et que leur exploitation fonctionne comme demandé, même dans des circonstances hautement évolutives.
  • Exécuter des processus ETL (extraire / transformer / charger) à partir d'ensembles de données complexes et/ou volumineux.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.