Activez les alertes d’offres d’emploi par e-mail !

Consultant Cloud Data Engineer (H / F)

Achil

Courbevoie

Sur place

EUR 60 000 - 90 000

Plein temps

Il y a 2 jours
Soyez parmi les premiers à postuler

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise innovante recherche un Cloud Data Engineer passionné pour optimiser les infrastructures cloud et développer des pipelines de données. Dans un environnement dynamique, vous travaillerez sur des projets ambitieux, en collaboration avec des équipes variées. Vous serez responsable de l'automatisation des processus CI/CD et de la sécurité des solutions mises en place. Si vous avez une expertise en AWS, Databricks, et une solide expérience en data engineering, cette opportunité est faite pour vous. Rejoignez une équipe qui place l'humain au cœur de sa stratégie et participez à la transformation digitale de demain.

Qualifications

  • 5 à 10 ans d'expérience en exploitation cloud et en data engineering.
  • Maîtrise d'AWS et Databricks est obligatoire.

Responsabilités

  • Optimisation de l'infrastructure cloud et développement de pipelines de données.
  • Mise en place de CI/CD et sécurisation de l'infrastructure.

Connaissances

Cloud Data Engineering
AWS
Databricks
Apache Kafka
Python
Java
Terraform
CI/CD
Data Pipelines
Monitoring

Formation

Bac+5 en informatique

Outils

GitLab CI/CD
CloudWatch
Prometheus
Grafana

Description du poste

Achil recherche pour le compte de son client, un Cloud Data Engineer (H / F) basé à Paris.

Notre client est une entreprise innovante spécialisée dans le conseil en transformation digitale, où l'humain est au cœur de la stratégie. Chaque collaborateur bénéficie d'un accompagnement sur mesure, d'un cadre de travail stimulant et d'une culture d'entreprise axée sur l'épanouissement et le développement des compétences.

Engagée en faveur du bien-être au travail et de la responsabilité sociétale, cette entreprise favorise un environnement dynamique où l'innovation et l'expertise se conjuguent pour relever les défis technologiques d'aujourd'hui et de demain. Intégrez des projets ambitieux aux côtés d'équipes passionnées et contribuez activement à la construction du futur numérique.

Dans la suite de l'annonce, l'utilisation du genre masculin a été adoptée afin de faciliter la lecture et n'a aucune intention discriminatoire.

Le poste

En mission pour un acteur majeur du domaine de l'énergie, vous serez un acteur clé de l'optimisation et de la gestion des infrastructures cloud et assurerez la performance et la sécurité des solutions mises en place.

  • Optimisation de l'infrastructure cloud : Assurer l'exploitation et l'optimisation de la nouvelle infrastructure cloud post-migration pour garantir performance, scalabilité et résilience.
  • Développement et maintenance des pipelines de données : Concevoir, déployer et superviser des pipelines de données robustes et évolutifs, en utilisant des technologies comme Apache Kafka, Airflow, Databricks et Terraform.
  • Automatisation et CI / CD : Mettre en place des processus d'intégration et de déploiement continus via GitLab CI / CD afin d'assurer un développement efficace et sécurisé.
  • Sécurisation et surveillance de l'infrastructure : Implémenter des stratégies de gestion des accès (IAM AWS), assurer le monitoring des performances et la disponibilité des services via CloudWatch, Prometheus et Grafana.
  • Collaboration interdisciplinaire : Travailler en étroite interaction avec les Business Analysts et Product Owners pour aligner l'architecture data sur les besoins métiers.
  • Documentation et veille technologique : Rédiger et maintenir une documentation technique précise, tout en restant informé des nouvelles tendances et innovations dans le domaine du cloud et de la data engineering.

Profil recherché

Formation et Certifications :

  • Diplôme universitaire : Un diplôme de niveau Bac+5 en informatique, data engineering ou un domaine connexe.

Expérience :

  • Expérience en Cloud Data Engineering : 5 à 10 ans d'expérience en exploitation cloud et en data engineering.
  • Expertise technique : Maîtrise obligatoire d'AWS et Databricks.
  • Compétences transverses : Capacité d'analyse, autonomie, esprit d'initiative et aptitude à vulgariser les choix techniques.
  • Collaboration interéquipe : Expérience en interaction avec les équipes data, devops, business analysts et product owners.
  • Connaissances appréciées : Notions des enjeux SIG / géomatique.

Connaissances et Compétences requises :

  • Cloud & Data Engineering : Expérience en exploitation et maintenance d'architectures cloud (AWS, Databricks, S3, Delta Lake), maîtrise des formats de stockage Parquet et Delta Lake, expertise en data lakehouse / data platform.
  • Développement & Data Pipelines : Expérience en Java et Python pour le développement de pipelines, maîtrise de Kafka (batch ou streaming temps réel), orchestration avec Airflow.
  • Infrastructure as Code & CI / CD : Automatisation avec Terraform, intégration et déploiement via GitLab CI / CD.
  • Sécurité & Monitoring : Gestion des accès et sécurité des données (IAM sur AWS), outils de monitoring (CloudWatch, Prometheus, Grafana).
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.