Activez les alertes d’offres d’emploi par e-mail !
Mulipliez les invitations à des entretiens
Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.
Une entreprise leader dans la technologie recherche un Data Engineer passionné pour rejoindre l'équipe à La Défense. Vous serez responsable du développement de pipelines de données sur la plateforme GCP et de la création de solutions innovantes. Ce rôle exige une maîtrise des langages de programmation comme Python et des outils de stockage comme GCP BigQuery et Kafka. Si vous êtes motivé par l'amélioration continue et le travail en équipe, nous aimerions vous rencontrer!
Développer les pipelines de données permettant l?ingestion des données du Core Banking sur la plateforme data existante sous GCP ? Garantir la non-régression du SI existant via le développement de TNR. ? Développer et assurer le run évolutif les états réglementaires spécifiques développés pour le programme Galaxy (VUC, Eckert, RUBA). ? Contribution à l?amélioration continue de nos outils et méthodologies de développements Missions principales : ? Participer aux analyses, études d?impacts et cadrage techniques ? Concevoir des solutions en respectant les bonnes pratiques d?architecture data et développement ? Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants ? Rédiger la documentation technique des data products ? Assurer un support aux testeurs ? Reporter de ton activité à ta Squad et travailler dans une démarche d?efficacité collective Livrables principaux : ? Réaliser du code applicatif à l?état de l?art sur notre nouvelle Data Platform ? Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l?ordonnancements ? Faire des propositions techniques Profil candidat : Langages de programmation : Python, Scripts Shell ? Modélisation des données : Modèle Physique des Données (MPD), requêtes SQL. ? Services de streaming data : Kafka ? Services d?ingestion des données : Kafka Connect, SFTP ? Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint ? Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) ? Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) ? Outils de collaboration et de CI / CD : GitLab, Flamingo ? Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform ? Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. ? Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Data Engineer Hf • La Défense, Île-de-France, France