Activez les alertes d’offres d’emploi par e-mail !

Data Engineer Confirme

Jakala France Sas

Paris

Sur place

EUR 45 000 - 70 000

Plein temps

Il y a 6 jours
Soyez parmi les premiers à postuler

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise innovante recherche un Data Engineer pour rejoindre son DataLab. Vous serez responsable de la conception et du développement de solutions data, en collaboration avec des Data Scientists et des Data Engineers. Votre rôle impliquera la création de pipelines de données, l'architecture ETL/ELT, et l'analyse de données pour répondre aux besoins des clients. Si vous êtes passionné par les technologies Big Data et souhaitez travailler dans un environnement dynamique, cette opportunité est faite pour vous.

Qualifications

  • Expérience en développement de plateformes data et solutions techniques.
  • Compétences en cloud et architecture cloud avec services managés.

Responsabilités

  • Contribuer au développement de l'offre Data et industrialisation des plateformes.
  • Développer des pipelines de traitement de données dans un environnement Big Data.

Connaissances

Développement logiciel
Analyse de données
Cartographie des données
ETL/ELT
Big Data

Formation

Diplôme en informatique ou domaine connexe

Outils

Snowflake
BigQuery
PostgreSQL
Kubernetes
AWS
GCP
Azure
Terraform

Description du poste

Au sein de notre DataLab, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE / MLOps engineers en poste, et tu es impliqué.e dans la prise de décisions liées aux solutions Data et à leur évolution.

À cet effet, tu es en charge de :
  1. Contribuer au développement de notre offre Data et à l'industrialisation de plateformes data pour nos clients
  2. Comprendre, analyser et proposer des solutions techniques répondant aux besoins des plateformes digitales et des projets internes
  3. Définir l'architecture logicielle ETL / ELT en collaboration avec tes pairs
  4. Travailler la donnée sous toutes ses formes (stockage, modélisation de modèles, structuration, nettoyage)
  5. Rédiger la documentation technique (diagrammes UML, documentation d'API)
  6. Partager ton savoir-faire entre les différents membres de l'équipe
  7. Concevoir et développer des connecteurs entre les sources de données (internes et externes) et la plateforme
  8. Concevoir et développer des pipelines de traitements de données (batch et en temps réel) dans un environnement Big Data
  9. Assurer une veille technologique et mener à bien un projet de R&D
  10. En autonomie, réaliser des missions en interne ou auprès de nos clients grands comptes :
  • Cartographier des données et des flux de données
  • Implémenter des algorithmes d'analyse de données pour l'industrialisation
  • Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
  • Développer et automatiser des flux de données et leurs visualisations en dashboards/reporting
  • S'assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
  • Analyser les données web pour répondre aux questions métier et participer à la construction de l'architecture Big Data
  • Mettre en place du scheduling et de la supervision des flux, en gérant les cas limites
Compétences attendues :
  • Bon niveau en développement : connaissance, conception et administration d'entrepos de données : Snowflake, BigQuery, PostgreSQL
  • Compétences cloud : Kubernetes, conteneurisation, fournisseur cloud (AWS, GCP ou Azure), Infrastructure as Code (Terraform)
  • Expérience en architecture et dimensionnement d'une architecture cloud via des services managés
  • Cartographie des données
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.