Activez les alertes d’offres d’emploi par e-mail !

Data Engineer Snowflake DBT (H/F/NB)

Trimane

Puteaux

Sur place

EUR 45 000 - 75 000

Plein temps

Il y a 30+ jours

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise dynamique et innovante recherche un Data Engineer passionné pour rejoindre ses équipes. Dans ce rôle, vous serez au cœur de la conception et de l'optimisation des pipelines de données, en utilisant des technologies modernes telles que Snowflake et AWS. Vous collaborerez avec des équipes variées pour transformer et visualiser les données, permettant ainsi des décisions éclairées basées sur des insights fiables. Si vous êtes motivé par l'innovation et le travail en équipe, cette opportunité est faite pour vous. Rejoignez une communauté engagée et contribuez à des projets passionnants dans le domaine de la Data Intelligence.

Prestations

Accès illimité aux plateformes de formation
Certifications et formations internes
Ateliers de veille technologique
CSE avec activités d'équipe
Participation à des projets communs

Qualifications

  • Expertise sur Snowflake et DBT pour la transformation des données.
  • Maîtrise des services AWS et des outils CI/CD pour le déploiement.

Responsabilités

  • Concevoir et maintenir des pipelines de données sur Snowflake avec DBT.
  • Créer des tableaux de bord avancés avec Qlik Sense pour les équipes métier.

Connaissances

Snowflake
DBT
Qlik Sense
AWS
Python
SQL
CI/CD
Apache Airflow

Formation

Diplôme Bac+5 en Informatique
Diplôme Bac+5 en Big Data
Diplôme Bac+5 en Statistiques

Outils

Jenkins
GitLab CI
GitHub Actions

Description du poste

Fondée en 2005, TRIMANE est un cabinet de conseil et une société de service spécialisée en Data Intelligence (Data et IA). Notre mission est de créer de la valeur à partir des données disponibles dans les entreprises, en s'appuyant sur des approches algorithmiques innovantes, des méthodologies spécifiques et de nombreuses technologies. En tant que spécialiste Data, nous sommes reconnus pour le très haut niveau d'expertise de nos consultants et de notre retour d'expérience en la matière. Nous accompagnons nos clients du secteur public ou privé sur des prestations de Conseil, MOA et MOE, autour du traitement et l'analyse des data, quel que soit l'environnement technique (BI, Big Data, Cloud, Machine Learning, Deep Learning, NLP, etc.) ou sur les aspects méthodologiques (Gestion de projet, Agile, DataOps, stratégie Data Gouvernance, organisation Data Driven…). Société à taille humaine, nous recrutons, avant tout, des personnes passionnées désirant intégrer une vraie communauté et construire ensemble une relation durable et de confiance. Rejoindre Trimane c'est :

  1. Un triple suivi de carrière avec vos référents technique, RH et commercial.
  2. Un accès en illimité à nos plateformes de formations, des certifications, des formations en interne autour en BI, Big Data, Machine Learning, Blockchain, développement web et logiciels software.
  3. Des ateliers de veilles technologiques sur des sujets innovants.
  4. Un CSE avec des afterworks, des escapes games, et autres activités d'équipe.
  5. Participer à l'aventure The Blockchain Group, un groupe d'entrepreneurs, composé de différentes entités proposant des offres de services complémentaires (digital, blockchain, Data...) et des projets communs.

Description du poste :

Dans le cadre de sa forte croissance, TRIMANE recherche un(e) Data Engineer passionné(e) et expérimenté(e) pour rejoindre ses équipes projet. Vous serez au cœur de la conception, de la mise en œuvre et de l'optimisation de nos pipelines de données dans un environnement moderne basé sur Snowflake, DBT, Qliksense, et AWS, tout en mettant en place des pratiques de CI / CD pour assurer des livraisons robustes et continues. En collaboration avec les équipes Data Science, Business Intelligence et IT, vous jouerez un rôle clé dans le traitement, la transformation et la visualisation des données, pour permettre des décisions basées sur des insights fiables.

Vos missions :

  1. Concevoir et maintenir des pipelines de données : Développer et optimiser les pipelines ETL / ELT sur Snowflake en utilisant DBT pour les transformations. Automatiser le flux de données avec des outils de workflow (ex. Airflow).
  2. Modélisation et transformation des données : Concevoir des modèles de données robustes, scalables et orientés business. Assurer la qualité des données et le suivi de leur conformité (Data Quality & Governance).
  3. Développement de dashboards et visualisations : Créer des visualisations avancées avec Qliksense en collaboration avec les équipes métier.
  4. Intégration avec AWS : Configurer et maintenir des services AWS (S3, Lambda, Glue, Redshift, etc.) pour répondre aux besoins en data engineering. Gérer les ressources cloud et optimiser les coûts.
  5. Mise en place de pratiques CI / CD : Construire et automatiser les déploiements via des outils de CI / CD (ex. Jenkins, GitLab CI / CD, GitHub Actions). Assurer une livraison continue des modèles DBT et des pipelines Snowflake.
  6. Support et veille technologique : Assurer le suivi des incidents, le monitoring et le support des pipelines de production. Réaliser une veille technologique pour identifier de nouvelles opportunités et améliorer les processus existants.

Profil recherché :

Compétences techniques recherchées :

  1. Base de données & Transformation des données : Expertise sur Snowflake (architecture, optimisation, sécurisation). Expérience avancée avec DBT (modélisation, macros, testing).
  2. Visualisation de données : Connaissance approfondie de Qlik Sense pour la création de tableaux de bord.
  3. Cloud Computing : Maîtrise des services AWS liés à la data (S3, Lambda, Glue, Athena, Redshift). Compréhension des architectures serverless et distribuées.
  4. CI / CD et outils de versionnement : Familiarité avec les outils CI / CD (Git, Jenkins, GitLab CI, etc.). Expérience avec les workflows de déploiement dans des environnements data.
  5. Programmation et scripting : Maîtrise de Python et / ou SQL. Connaissance des frameworks d'orchestration de données (ex. Apache Airflow).

Compétences soft et organisationnelles : Capacité à travailler en équipe et à collaborer avec des profils variés (Data Scientists, BI Analysts, DevOps...). Bonnes capacités d'analyse et de résolution de problèmes complexes. Autonomie, rigueur et sens de la priorisation dans un contexte agile.

Formation et expérience : Diplôme Bac+5 en Informatique, Big Data, Statistiques, ou équivalent. Une expérience significative d'au moins 3 ans dans un rôle similaire. Une certification Snowflake ou AWS serait un plus.

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.