Activez les alertes d’offres d’emploi par e-mail !

Data Engineer - Ingénieur Data H / F

LUTESSA

Paris

Sur place

EUR 45 000 - 70 000

Plein temps

Il y a 29 jours

Résumé du poste

Une ESN spécialisée recherche un Data Engineer pour concevoir et développer des solutions de valorisation des données, travailler sur des environnements Cloud comme Azure et AWS, et gérer des projets de pipeline de données. Le candidat idéal a au moins 3 ans d'expérience dans le domaine et est passionné par les infrastructures de données. Un bon niveau d'anglais est requis.

Qualifications

  • 3 ans d'expérience significative en gestion de données.
  • Compréhension des enjeux techniques liés aux pipelines et à la qualité des données.
  • Capacité à organiser et diriger des projets.

Responsabilités

  • Concevoir et maintenir des solutions de gestion des données.
  • Développer et orchestrer des pipelines de données.
  • Former les utilisateurs internes aux solutions déployées.

Connaissances

Passion pour la data
Communication avec équipes pluridisciplinaires
Organisation et leadership
Anglais professionnel

Outils

Azure
AWS
GCP
Snowflake
Databricks
Airflow
Python
Scala
Talend
Description du poste

Qui sommes nous ? Nous c'est Lutessa, ESN hyper-spécialisée dans 3 domaines d'activité : la Connectivité, le Cloud et la Cybersécurité. Grâce à une centaine de spécialistes technophiles, Lutessa accompagne ses clients, à savoir, constructeurs, opérateurs, intégrateurs et grands donneurs d'ordres dans l'étude, l'intégration et la gestion de leurs infrastructures critiques. A ce jour, Lutessa couvre aujourd'hui 2 territoires : la France & Monaco, et a l'ambition d'en ouvrir d'autres ! Pourquoi nous rejoindre ? Ingénieurs en Cybersécurité, Réseau et Cloud avant tout passionnés par les infrastructures informatiques et également curieux, et animés par l'envie d'un perfectionnement continu ? Rejoignez la Lutessa Family ! Au delà de vos compétences intrinsèquement techniques, Lutessa vous accueille comme vous êtes et sa promesse est de bâtir ensemble votre carrière avec sincérité et transparence. Lutessa se veut être un catalyseur et un bâtisseur de carrière, en vous stimulant et vous exposant sur des projets pertinents et enrichissants pour vous. Vos RingLeaders (référents techniques) s'engagent à vous accompagner dans votre développement en veillant à incarner et transmettre leurs valeurs en toute simplicité. Venez développer votre potentiel au sein d'une société à taille humaine qui se définit comme une entreprise Joyeuse ! Pour en savoir plus sur notre état d'esprit : https : / / www.lutessa.com

Description du poste :

Fiche de Mission – Data Engineer Objectif de la mission Concevoir, développer et maintenir des solutions de gestion et de valorisation des données, depuis l'analyse des besoins métiers jusqu'au RUN des plateformes data, en s'appuyant sur des environnements Cloud (Azure, AWS, GCP), des solutions modernes de datawarehouse (Snowflake, Databricks) et / ou des développements ETL custom. Responsabilités principales Analyse des besoins - Recueillir et formaliser les besoins métiers avec les parties prenantes (Data, IT, Métier). - Identifier les cas d'usage et opportunités de mise en valeur des données (POC, industrialisation). - Définir les KPIs et les objectifs de performance des pipelines. Conception de l'architecture - Concevoir des architectures data robustes et scalables. - Définir les flux de données (batch, streaming) et les règles de gouvernance associées. - Choisir et dimensionner les solutions (Snowflake, Databricks, ETL custom, Fabric). - Mettre en place la sécurité, la qualité et la traçabilité des données (RGPD, lineage). Développement & Intégration - Développer et orchestrer des pipelines de données (ingestion, transformation, exposition). - Implémenter des traitements distribués et optimisés (PySpark, SQL, Python, Scala). - Intégrer les données issues de sources variées (API, ERP, CRM, IoT, fichiers, bases relationnelles). - Automatiser les workflows avec des orchestrateurs (Airflow, Fabric, Databricks Workflows, Talend). Création d'applications & restitution - Développer des applications d'exposition de données (API, microservices, dashboards). - Construire des modèles de restitution et de data visualisation. - Optimiser l'ergonomie et la performance des solutions BI. Tests et validation - Définir et exécuter des plans de tests (unitaires, intégration, performance). - Mettre en place des mécanismes de monitoring et d'alerting sur les pipelines. - Garantir la qualité, la complétude et la fraîcheur des données. Documentation - Rédiger la documentation technique et fonctionnelle. - Maintenir des guides d'utilisation pour les équipes Data & Métier. - Alimenter un référentiel de bonnes pratiques et standards. Formation & support RUN - Former les utilisateurs internes (data teams, métiers) aux solutions déployées. - Assurer le support et la maintenance évolutive (RUN). - Suivre les incidents, proposer des solutions durables et optimiser les performances. Stack technologique Cloud & Data Platform Cloud : Azure, AWS, GCP Datawarehouse / Lakehouse : Snowflake, Databricks (priorité) Orchestration : Microsoft Fabric, Airflow, Databricks Workflows ETL / Ingestion Talend, Informatica, Dataiku Développements custom en Python / Scala / SQL Visualisation & Apps Power BI, Tableau, Looker, Qlik Sense / QlikView, Superset, Grafana, Power Apps Data Quality & Tests Dataiku, Talend, Informatica, Griffin, dbt

Profil recherché :

Passionné de data, justifiant de 3 ans d'expérience signicative (hors stages et apprentissages) Bonne compréhension des enjeux techniques data (pipeline, qualité, MLOps…), et capacité à communiquer avec des équipes pluridisciplinaires Organisation, leadership, sens du service Anglais professionnel (oral et écrit)

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.