Activez les alertes d’offres d’emploi par e-mail !

Ingénieur Cloud & DevOps – Projet Data (H/F)

DHM IT France

Neuilly-sur-Seine, Palaiseau, Senlis

Sur place

EUR 40 000 - 80 000

Plein temps

Il y a 30+ jours

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise dynamique recherche un ingénieur Cloud & Big Data passionné pour contribuer à des projets stratégiques. Dans un environnement collaboratif, vous participerez à la mise en œuvre de solutions innovantes pour la collecte et l'analyse de données. Vous aurez l'opportunité de travailler avec des technologies de pointe, telles que GCP et des outils d'automatisation comme Terraform et Ansible. Si vous êtes autonome, rigoureux et avez un intérêt pour la veille technologique, cette position vous permettra de développer vos compétences tout en ayant un impact significatif sur les projets de l'entreprise.

Qualifications

  • Maîtrise du cloud public (GCP, AWS, OVH).
  • Compétences solides en automatisation et industrialisation.

Responsabilités

  • Participation au BUILD des services data et analyse des besoins.
  • Supervision et gestion des incidents des services.

Connaissances

Cloud public
Automatisation
Big Data
Unix/Linux
Scripting (Python, SQL)
Soft Skills

Outils

Puppet
Ansible
Terraform
Jenkins
GitLab
Airflow

Description du poste

Dans le cadre d'un projet client, nous sommes à la recherche d'un.e ingénieur.e Cloud & Big Data pour contribuer à des projets stratégiques autour de la collecte, l’analyse et la valorisation de données, ainsi qu’à la mise en œuvre d’outils décisionnels pour les équipes internes.

MISSION:

Le consultant interviendra sur les volets suivants :

  • Participation au BUILD des services data
  • Analyse des besoins liés à l’hébergement des développements
  • Adaptation de l’industrialisation des infrastructures en fonction des évolutions
  • Planification et exécution des changements
  • RUN & exploitation quotidienne des services
  • Supervision, diagnostic et gestion des incidents
  • Contribution à la documentation technique
  • Référence technique auprès des équipes projets (exploitation, développement, PO/PM, prestataires)
PROFIL:
Compétences techniques indispensables
  • Maîtrise du cloud public (GCP fortement apprécié, AWS ou OVH acceptés)
  • Compétences solides en automatisation et industrialisation (Puppet, Ansible, Terraform…)
  • Très bonnes connaissances des technologies Big Data : Spark, Python, Hadoop, SQL
  • Bonne culture Unix/Linux
Compétences complémentaires souhaitées
  • Maîtrise de langages de scripting (Python, SQL)
  • Connaissance des outils de CI/CD et d’orchestration : Jenkins, GitLab, Airflow
  • Connaissance des architectures data modernes : Lakehouse, Datalake
  • Expérience avec des solutions comme Delta, Parquet, dbt, BigQuery
  • Bonnes notions de systèmes, réseaux et virtualisation
  • Expérience sur des plateformes web à fort trafic
Soft Skills
  • Autonomie, rigueur et sens du service
  • Capacité à travailler en transversal avec différentes équipes

Anglais technique requis (lu/écrit)

Intérêt pour la veille technologique

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.