
Activez les alertes d’offres d’emploi par e-mail !
Une entreprise de recrutement spécialisée recherche un(e) Cloud Data Engineer à Paris. Ce poste implique de concevoir des infrastructures data robustes, d'assurer la sécurité et la scalabilité des systèmes, et de travailler avec des technologies de pointe. Une maîtrise du français et de l'anglais est requise. Le salaire est compris entre 70 et 80k € annuels. Des connaissances en Cloud et en Big Data sont essentielles.
Entreprise :
digiRocks est un cabinet de recrutement fondé en 2017 par Olivier Marx, spécialisé dans les métiers du digital. En combinant approche humaine et outils data-driven, il optimise le matching entre talents et entreprises. L'acquisition par Jean-Patrick Manzoni en 2024 marque une nouvelle étape, tournée vers l'innovation et l'expansion. Grâce à son expertise sectorielle et son ADN digital, digiRocks façonne l'avenir du recrutement numérique.
Description du poste :
Fan de cloud, passionné(e) par la data et l'IA ? Envie de concevoir des infrastructures qui transforment le business ?
Rejoignez une société en pleine croissance qui combine stratégie, data et technologies de pointe. ;Vous intégrez une équipe à taille humaine qui conçoit des stratégies augmentées par la donnée, développe des solutions techniques pragmatiques et délivre des cas d'usage concrets à fort impact. Ici, l'expérience collaborateur est pensée pour vous faire grandir, vous donner de l'autonomie et maximiser votre impact.
digiRocks recrute un(e) Cloud Data Engineer à Paris en CDI (70 - 80k)
Mission : Concevoir et implémenter des architectures data complètes, du recueil à la restitution. Assurer la fiabilité, la sécurité et la scalabilité des infrastructures data. Accompagner les consultants dans la définition des stratégies data et leur mise en œuvre technique.
Résultats attendus :
Résultat 1 - ; Déployer un environnement cloud robuste et performant.
Résultat 3 - ; Permettre aux clients d'exploiter la donnée pour transformer leurs organisations.
Maîtrise des services Cloud Data Warehouse (BigQuery, Snowflake, AWS Redshift / Athena, Azure SQL DWH / Databricks, Looker…).
Connaissances en architectures relationnelles et big data, intégration, modélisation, optimisation et analyse.
Expérience en pipelines de données end-to-end (on-premise ou cloud), ETL / ELT, gouvernance.
Compétences en SQL avancé, Python, et technologies Big Data (Spark, Kafka, Airflow, Beam…).
Pratique des environnements cloud publics et des enjeux d'infrastructure.
Intérêt pour l'IA et le Machine Learning.
Esprit analytique, sens du business, leadership.
Maîtrise du français et de l'anglais (poste basé à Paris).
Postule en 2 mn
LI-JM1