Poste ouvert pour PVT et nous pouvons faire des permis Jeunes Professionnels !
TACHES PRINCIPALES :
- Conception et architecture des solutions de données :
-Définir et/ou mettre en œuvre des architectures cloud modernes pour le traitement et le stockage des données (Azure de préférence, ou AWS).
-Concevoir des pipelines de données robustes pour assurer l’intégration et la transformation des données provenant de multiples sources. - Gestion des projets de migration :
-Participer à la migration de data warehouses traditionnels (on-premise) vers des plateformes cloud (ex. Azure Synapse, Snowflake, Databricks).
-Collaborer avec les équipes métiers et techniques pour planifier, exécuter et valider les migrations de données, notamment dans le cadre de projets de migration de CRM (ex. Salesforce, Dynamics 365). - Développement et optimisation de pipelines de données :
-Utiliser des outils comme Azure Data Factory, Apache Spark, ou Databricks pour créer des workflows d’ingestion, transformation, et mise à disposition des données.
-Automatiser les processus ETL/ELT en respectant les principes de scalabilité et de performance. - Gestion des données et gouvernance :
-Surveiller la qualité des données et mettre en place des mécanismes de détection et de correction des anomalies.
-Implémenter des politiques de gouvernance des données, incluant la gestion des métadonnées, la sécurité, et la conformité (ex. RGPD). - Collaboration interdisciplinaire :
-Travailler avec des équipes pluridisciplinaires (data scientists, analystes, et équipes métier) pour comprendre leurs besoins et adapter les solutions.
-Fournir un support technique sur l’utilisation des pipelines et plateformes de données. - Optimisation des coûts et des performances :
-Configurer et surveiller les ressources cloud pour minimiser les coûts tout en maintenant une performance optimale.
-Identifier et résoudre les goulets d’étranglement dans les systèmes de données et pipelines. - Veille technologique :
-Rester à jour sur les technologies modernes et les meilleures pratiques en matière de cloud, big data, et migration de données.
-Recommander de nouveaux outils ou approches pour améliorer les processus existants.
COMPETENCES TECHNIQUES :
- Cloud : Expertise en Azure (Azure Data Factory, Azure Synapse Analytics, Azure Blob Storage) de préférence, ou plateformes similaires (AWS, GCP).
- Big Data : Maîtrise de Databricks et Apache Spark pour le traitement des données à grande échelle.
- Langages de programmation : Excellente connaissance de Python (pandas, PySpark) et SQL.
- Outils ETL/ELT : Expérience avec des outils comme Azure Data Factory, Informatica, ou Talend.
- Bases de données : Connaissance des data warehouses modernes (Snowflake, BigQuery) et des bases relationnelles (PostgreSQL, MySQL).
EXPERIENCES REQUISES :
Au-dessus de 7 ans d'expérience en ingénierie des données, avec une forte exposition aux projets de migration de données ou de data warehouses.
Participation active à des projets complexes de migration CRM ou ERP, avec une compréhension des défis métiers et techniques.