Activez les alertes d’offres d’emploi par e-mail !
Mulipliez les invitations à des entretiens
Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.
Une société de conseil et de solutions logicielles recherche un Data Engineer pour une mission de 6 mois renouvelable. Vous serez en charge de l'architecture et de l'industrialisation des traitements de données dans un environnement multi-cloud, utilisant des outils modernes. Ce poste requiert une expertise en Python, SQL, et des services cloud tels qu'AWS, GCP et Azure.
iPepper, c'est à la fois une société de conseil et de solutions logicielles. Nous sommes une communauté experte et humaniste qui accompagne les meilleurs Talents de la Data Tech dans leurs missions auprès de clients impactants.
Nous accompagnons nos clients, start-ups, PME, grandes entreprises, dans leurs projets stratégiques, en valorisant les talents dans un cadre où l’intelligence collective et le bien-être sont au cœur de notre approche. Nous croyons que c'est en créant une communauté soudée, épanouie et en perpétuelle évolution que nous répondrons au mieux aux futurs grands enjeux de la DataTech.
En rejoignant iPepper en tant que consultant, vous intégrez un réseau dynamique, humain et bienveillant, avec un accompagnement personnalisé tout au long de votre mission.
Le contexte de la mission
Dans le cadre d’un projet stratégique mené chez l’un de nos clients, nous recherchons un(e) Data Engineer pour contribuer à la scalabilité, à la performance et à l’industrialisation des traitements de données.
Vous évoluerez dans un environnement multi-cloud (Azure, GCP & AWS) et manipulerez des outils modernes : DBT, Snowflake, Airflow, MLflow, Kubeflow...
Architecture & Déploiement Cloud
- Participer à la définition de l’architecture technique en lien avec le backlog produit
- Collaborer avec le PO, les DevSecOps et les architectes de la plateforme Cloud
- Automatiser et sécuriser les environnements (IaC, DevOps, monitoring…)
- Accompagner les équipes dans la montée en compétences
- Vulgariser les enjeux techniques auprès d’interlocuteurs non techniques
- Promouvoir les bonnes pratiques DevSecOps
- Garantir la stabilité et la performance des environnements de production
- Concevoir des pipelines de données robustes et optimisés
- Participer à la création d’algorithmes de transformation et à la valorisation des données (visualisation, ML)
- Maîtrise des environnements Cloud (Azure, GCP, AWS).
- Expérience en MLOps (Kubeflow, MLflow, Vertex AI, SageMaker…)
- Très bon niveau en Python, SQL, Spark
- Sens de l’optimisation technique et économique des infrastructures data & ML
Profil recherché
- Vous possédez un diplôme d’ingénieur informatique et/ou un Master avec une spécialité data.
- Vous justifiez de 3 à 4 ans d’expérience minimum sur un poste similaire en environnement cloud.
- Vous avez une expertise dans l’utilisation d’outils tels que Spark, Python, Scala, et une solide -compréhension des processus ETL.
- Vous êtes à l’aise avec les services cloud (Azure, GCP, AWS) et les plateformes de données comme Snowflake ou Databricks.
- Vous maîtrisez le français et l’anglais, à l’écrit comme à l’oral.
- Votre capacité d’analyse et votre sens de la résolution de problèmes sont des atouts clés pour cette mission.
Il s’agit d’une mission en freelance 6 mois renouvelable, un avec démarrage rapide.