
Activez les alertes d’offres d’emploi par e-mail !
Générez un CV personnalisé en quelques minutes
Décrochez un entretien et gagnez plus. En savoir plus
Une entreprise technologique innovante à Lyon recherche un Data Engineer pour concevoir des pipelines de données robustes sur Databricks. Les candidats doivent maîtriser PySpark et SQL, avoir des compétences Cloud (AWS, Azure ou GCP) et un niveau d'anglais minimum B2. Ce poste offre un environnement de travail axé sur la formation continue et la diversité, avec un processus de recrutement comprenant plusieurs entretiens.
Rejoignez notre équipe lyonnaise dans des projets innovants dans un environnement propice à la formation et au développement continu.Nos clients sont des grands comptes de secteurs d'activité variés (Industrie Transport Logistique Banque Assurance Energie...).
Concevoir et construire des pipelines de données robustes sur Databricks en utilisant PySpark et Spark SQL.
Recueillir les besoins participer aux ateliers de conception et optimiser les flux de données.
Assurer la qualité du code et des données à travers des tests techniques des revues de code et la gestion des anomalies.
Contribuer à l'amélioration continue des processus par l'automatisation et l'application des bonnes pratiques.
Participer activement aux cérémonies agiles et maintenir une veille technologique constante.
Nous recherchons un(e) Data Engineer doté(e) d'excellentes compétences techniques et d'une bonne capacité à communiquer et à vulgariser des sujets complexes. Vous êtes reconnu(e) pour votre esprit d'équipe, votre rigueur et votre capacité à travailler en méthode Agile (Scrum). Un niveau d'anglais minimum B2 est attendu.
Compétences techniques et outils :
Maîtrise de Databricks PySpark Python et SQL.
Compétences Cloud (AWS Azure ou GCP).
Connaissance des environnements CI / CD et DevOps.
Expérience en orchestration avec Airflow ou Azure Data Factory.
Connaissance des modèles de données et des technologies Spark et Scala est un plus.
La certification Databricks Associate ou Professionnel est appréciée.
Nous sommes une AI-Driven Company partenaire des plus grands partenaires technologiques (Google AWS Microsoft ServiceNow) et composée d'un important collectif d'experts (50 tribus d'expertise). Avec 75% de nos collaborateurs certifiés dont 100 % sur la GenAI Devoteam, nous sommes une Learning Company où l'apprentissage continu est au cœur de notre ADN.
Comment se déroule le processus de recrutement chez Devoteam ? Il comporte 2 à 3 entretiens :
Nous privilégions au moins un entretien en présentiel. Une prise de référence est demandée et, selon votre profil, des tests (techniques, anglais, personnalité…) peuvent vous être adressés.
Si votre candidature est retenue, nous vous faisons parvenir une proposition présentant les conditions d'embauche. En cas d'acceptation, le contrat de travail est formalisé.
Le Groupe Devoteam œuvre pour la légalité des chances pour la promotion de ses collaboratrices et de ses collaborateurs au mérite et lutte activement contre toute forme de discrimination. Nous sommes convaincus que la diversité contribue à la créativité, au dynamisme et à l'excellence de notre organisation. Chaque candidature est donc considérée indépendamment de tout critère discriminatoire.
Remote Work: Yes
Employment Type: Full-time
Apache Hive, S3, Hadoop, Redshift, Spark, AWS, Apache Pig, NoSQL, Big Data, Data Warehouse, Kafka, Scala
Experience: years
Vacancy: 1