Activez les alertes d’offres d’emploi par e-mail !
Easel-Tech, une entreprise à la pointe des technologies de données, recherche un Data Engineer pour rejoindre son équipe dynamique. Le candidat idéal aura plus de 5 ans d'expérience, avec des compétences solides en Big Data, scripte et cloud. Ce poste offre l'opportunité de travailler sur des projets d'envergure, en utilisant des technologies de pointe comme Spark et Databricks, dans un environnement collaboratif et éthique.
Easel-Tech se positionne à l'intersection du conseil stratégique et de l'expertise technique, qui se traduit aussi comme étant un trait d'union entre Métiers & DSI, avec une volonté forte d'accompagner nos clients dans leurs enjeux les plus complexes et les plus structurants. Chez Easel-Tech, on croit qu'un.e consultant.e engagé.e, c'est d'abord un.e consultant.e écouté.e. Nous vous plaçons au cœur de projets data à fort impact, sur des technologies comme Spark, Snowflake ou Databricks — dans un cadre clair, transparent, et avec un vrai accompagnement. La collaboration, la curiosité et l'engagement collectif sont les moteurs de notre réussite. Portés par des valeurs d'éthique, d'ouverture et de responsabilité, nous construisons des solutions performantes, respectueuses des écosystèmes et des personnes.
Description du poste :
Ce que vous ferez au quotidien : - Concevoir et optimiser des pipelines de données robustes. - Automatiser les flux via des scripts (Python, Bash, PowerShell, ou autre…). - Intégrer des données issues de sources variées dans des Datalakes ou Data Warehouses. - Gérer et sécuriser les bases de données et les environnements cloud. - Travailler avec des outils comme Spark, Hadoop, Kafka, Databricks, ou autres… - Mettre en place des solutions Big Data à l'échelle. - Veiller à la qualité, la sécurité et la gouvernance des données.
Profil recherché :
Vous êtes sans doute notre futur.e ET si vous avez : - Plus de 5 ans d'expérience en tant que Data Engineer. - Une solide maîtrise du scripting (Python, Bash, ou autres…). - Une bonne expérience avec les environnements Big Data. - La capacité à opérer sur le cloud (AWS, Azure ou GCP). - L'envie de faire parler des données complexes, et de le faire bien. - Autant de savoir être que de savoir-faire.