
Activez les alertes d’offres d’emploi par e-mail !
Générez un CV personnalisé en quelques minutes
Décrochez un entretien et gagnez plus. En savoir plus
Une banque innovante recherche un Data Engineer pour assurer la maîtrise et l'exploitation de la donnée. Dans ce rôle, vous aurez la responsabilité de créer l'infrastructure Data, de collecter et d'analyser d'importants volumes de données, et de travailler en étroite collaboration avec l’équipe de Data Scientists. Des compétences en Python, Apache Spark, et une connaissance des outils Big Data sont essentielles. Bonne maîtrise de l'anglais souhaitée.
Description de l'entreprise
Oney est une banque différente et unique, née du commerce.
Guidés par nos valeurs, Liberté, Respect, Enthousiasme, nos milliers de talents présents dans 12 pays travaillent jour après jour à donner la possibilité à chacun d’améliorer son quotidien et de mieux consommer.
En créant des solutions de paiement et de financement innovantes nous facilitons la vie de millions de consommateurs et de milliers de commerçants à travers l’Europe. Nous les accompagnons au quotidien pour les aider à faire les bons choix, pour eux comme pour les autres.
Partenaire de la transformation du commerce, à la fois créateur et leader du paiement fractionné en France, Oney est présent sur 5 marchés européens avec cette offre full digitale et omnicanale unique sur le marché.
Nous nous battons depuis plus de trente-cinq ans pour faciliter les achats quotidiens de nos clients en leur offrant plus que le pouvoir d’achat : le pouvoir de choix. Pour leur permettre de mieux gérer leur argent, en le gérant à leur façon et en accord avec leurs convictions.
C’est ce que raconte notre signature : « Your money, your way »
Etre Data Engineer chez Oney, pourquoi c’est mieux?
Plus qu’un poste…une mission pour vous !Et quelle mission!
Leader indispensable sur les technologies du Big Data, votre challenge est d’assurer la maîtrise de la donnée et d’être garant de la qualité de son utilisation (référencement, normalisation et qualification) afin d’en faciliter l’exploitation par les équipes. Voici ce que nous vous proposons :
Ce qui nous plaira le plus chez vous : C’est vous-même! Alors bien évidemment on vous préférera ouvert, force de proposition, capable de challenger vos interlocuteurs et doté d’une vraie capacité d’analyse et de synthèse, car c’est ce qui vous permettra de mener au mieux votre.
Dans votre bagage, on aimerait y trouver une expérience dans l'intégration de données provenant de plusieurs sources de données (Connaissance de diverses techniques et frameworks ETL ou ELT) et dans la création de systèmes de traitement de flux en utilisant des solutions telles Spark-Streaming, une Bonne compréhension des principes de l'informatique distribuée, une bonne connaissance des outils Big Data (type Python, Apache Spark) et de gestion du cluster du type Snowflake, de l’écosystème Databricks et l’ETL Semarchy / Stambia dans un environnement Azure Cloud ainsi que des outils de génération augmentée de récupération (RAG) et des grand modèles de languages (LLM)
Si vous êtes à l’aise dans la langue de Shakespeare, ce sera un vrai plus.