Activez les alertes d’offres d’emploi par e-mail !

Data Engineer Cloud - H/F

Licorne Society

Paris

Hybride

EUR 50 000 - 70 000

Plein temps

Il y a 30+ jours

Résumé du poste

Une entreprise majeure de la biologie médicale recherche un Data Engineer Cloud pour rejoindre son équipe dynamique. Le candidat idéal doit posséder une forte expérience technique et avoir la capacité d'intégrer et de structurer des données de manière efficace. Ce rôle offre des avantages comme un travail à distance flexible et des primes sur objectifs, tout en contribuant aux projets stratégiques de l'entreprise dans un environnement stimulant.

Prestations

Prime sur objectifs
CSE / transport en commun
Télétravail (2 jours/semaine)
Déplacements occasionnels

Qualifications

  • Au moins 5 ans d’expérience en tant que data-engineer.
  • Maitrise de la programmation SQL et Python.
  • Maitrise des environnements Cloud (AWS ou GCP).

Responsabilités

  • Identifier et connecter diverses sources de données.
  • Concevoir et maintenir des pipelines ETL pour l'entrepôt de données.
  • Collaborer avec les Data Scientists et Data Analysts.

Connaissances

SQL
Python
Streaming technologies
Data connectors
Data Quality

Outils

AWS
GCP
MySQL
PostgreSQL
Kafka
AirFlow
NoSQL
Description du poste

Licorne Society a été missionné par une entreprise dans le secteur médical pour les aider à trouver leur Data Engineer Cloud

Présentation de l'entreprise :

Acteur majeur de la biologie médicale en France et en Europe, l'entreprise est un regroupement de laboratoires de biologie médicale créé, dirigé et développé exclusivement par des pharmaciens ou médecins spécialisés en biologie médicale.

Dans un contexte de structuration, la direction IT groupe cherche son prochain talent au sein du siège social en région Parisienne.

L'entreprise construit une équipe DATA solide pour faire face aux principaux enjeux de la donnée : pilotage opérationnel des directions business, intégration et consolidation massive de données, enrichissement et valorisation de la donnée patient.

Les principales missions seront les suivantes :

Connexion et intégration des différentes sources de données :

  • Identifier et connecter les diverses sources de données internes et externes de l’entreprise (bases de données, APIs, fichiers, systèmes externes, etc.).
  • Assurer l’intégration des données provenant de ces sources dans un entrepôt de données centralisé, accessible et performant.

Alimentation de l’entrepôt de données :

  • Concevoir, développer et maintenir des pipelines ETL (Extract, Transform, Load) permettant de centraliser et d’alimenter l’entrepôt de données.
  • Automatiser les processus d’alimentation pour garantir la fraîcheur et la cohérence des données.

Nettoyage, structuration et transformation des données :

  • Veiller à la qualité des données en nettoyant et en structurant les données brutes pour les rendre exploitables
  • Mettre en œuvre des processus de transformation des données afin de les adapter aux besoins des équipes métiers et des analysts

Préparation des modèles de données pour les Data Analysts et Data Scientists :

  • Créer des modèles de données structurés et performants, adaptés aux besoins spécifiques des Data Analysts et Data Scientists.
  • Collaborer avec ces équipes pour comprendre leurs besoins en matière de données et préparer des jeux de données optimisés pour les analyses avancées et la modélisation statistique

Optimisation des performances des bases de données :

  • Garantir la performance, la scalabilité et la sécurité des bases de données, tout en veillant à leur intégrité.
  • Optimiser les requêtes et les processus de traitement des données pour garantir des performances élevées à grande échelle

Collaboration inter-équipes :

  • Travailler étroitement avec les Data Scientists, les Data Analysts et les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées
  • Participer activement à la définition de l’architecture de données de l’entreprise

PROFIL & COMPETENCES :

  • Expérience : Au moins 5 ans d’expérience en tant que data-engineer.
  • Maitrise des connecteurs de données (ODBC, Rest API)
  • Maitrise de langages de programmation (SQL, python)
  • Maitrise des bases de données (MySQL, PosgreSQL, NoSQL) et de leurs outils d’administration Maitrise des environnements et services Cloud associés AWS ou GCP
  • Maitrise des technologies de streaming et d’orchestration : Kafka / Debezium, AirFlow, etc.

Avantages du poste :

-Poste complet et challengeant

-Poste à pourvoir ASAP

-Prime sur objectifs / prime d’intéressement

-CSE / transport en commun

-Déplacements occasionnels

-Télétravail (2jours/semaine)

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.