Activez les alertes d’offres d’emploi par e-mail !
Mulipliez les invitations à des entretiens
Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.
Une entreprise innovante recherche un ingénieur en données passionné pour rejoindre son équipe dynamique. Vous serez responsable de la migration des données existantes vers Snowflake, tout en concevant des pipelines de données et en optimisant les performances de l'entrepôt de données. En collaborant avec des équipes transverses, vous traduirez les exigences métier en solutions techniques efficaces. Si vous avez une solide expérience en ingénierie des données et une expertise en Azure, cette opportunité vous permettra de travailler sur des projets passionnants tout en restant à la pointe des tendances technologiques. Rejoignez cette aventure et faites une différence dans le domaine du cloud computing.
Migrer les données existantes de Redshift vers Snowflake à l'aide de DBT et d'Airflow.
- Collaborer avec des équipes transverses pour traduire les exigences métier en solutions techniques.
- Concevoir et mettre en œuvre des pipelines de données, des processus ETL et des modèles de données.
- Automatiser l'ingestion, la transformation et la validation des données grâce aux technologies Azure (Data Factory, Functions, Databricks).
- Développer des procédures stockées, des vues et des fonctions SQL Server pour l'accès aux données et le reporting.
- Optimiser les performances de l'entrepôt de données et identifier les axes d'amélioration.
- Mettre en œuvre des politiques de gouvernance des données pour garantir l'exactitude, l'exhaustivité et la sécurité.
- Documenter les processus et les bonnes pratiques d'ingénierie des données.
- Se tenir informé des tendances du secteur et des technologies émergentes en matière d'ingénierie des données et de cloud computing.
- Licence en informatique, ingénierie ou domaine connexe.
- Plus de 3 ans d'expérience en ingénierie et architecture de données.
- Expertise Azure (Data Factory, Functions, Databricks).
- Maîtrise de SQL Server (procédures stockées, vues, fonctions).
- Expérience avec Snowflake et DBT.
- Connaissance d'Airflow ou d'outils de workflow similaires.
- Familiarité avec les principes de modélisation de données et de conception de bases de données.
- Solides compétences en résolution de problèmes, analyse et communication.
- Capacité à travailler de manière autonome et collaborative.