Activez les alertes d’offres d’emploi par e-mail !

Data ingénieur / Data ops - Full remote

JR France

Marseille

À distance

EUR 45 000 - 65 000

Plein temps

Il y a 5 jours
Soyez parmi les premiers à postuler

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise experte en data propose un poste de Data ingénieur / Data ops en CDI, en full remote. Ce rôle implique la construction d'une stack fiable sur GCP pour professionnaliser l'infrastructure existante, travailler directement avec des équipes data et produit, et offrir un impact immédiat sur des projets clés.

Prestations

Remote flexible
Culture produit et co-construction
Autonomie et posture d'expert

Qualifications

  • 5 à 7 ans d'expérience minimum en data engineering / DevOps.
  • Bonne maîtrise de GCP, Airflow, Terraform, PostgreSQL, BigQuery.
  • Esprit rigoureux, structuré, fiable.

Responsabilités

  • Déployer et sécuriser une infrastructure data sur GCP.
  • Orchestrer les flux avec Airflow.
  • Structurer l'environnement via Terraform (IaC).

Connaissances

GCP
Airflow
Terraform
PostgreSQL
BigQuery

Description du poste

Data ingénieur / Data ops - Full remote, marseille

marseille, France

Notre client est une entreprise à taille humaine, experte de la data, qui développe des solutions innovantes autour de la collecte, de l’analyse et de l’exploitation de données. Dans un contexte de structuration de ses fondations techniques, elle crée aujourd’hui un poste clé au sein de son équipe tech. Ce poste est en CDI, signé directement avec notre client.

? Le contexte

Objectif : professionnaliser une infra data existante (en POC) et construire une stack fiable, sécurisée et scalable sur GCP, dans le respect d’exigences de conformité à venir (ISO 27001).

Un poste complet mêlant build, run, structuration d’outils, et collaboration directe avec les équipes data & produit.

  • Déployer et sécuriser une infrastructure data sur GCP
  • Orchestrer les flux avec Airflow
  • Structurer l’environnement via Terraform (IaC)
  • Mettre en place le monitoring & l’intégration continue
  • Gérer les bases PostgreSQL et BigQuery
  • Fiabiliser les outils existants et les faire évoluer
  • Collaborer avec les Data Scientists, Dev Back & métier

? Stack & méthodes

  • Orchestration : Airflow (déployé en interne)
  • Données traitées en batch , volumétrie en Go

? Pourquoi ce poste ?

  • Création de poste = impact immédiat et concret
  • Culture produit, bienveillance et ouverture à la co-construction
  • Remote flexible (présentiel 1 jour toutes les 2 semaines sur Paris)
  • Autonomie, posture d’expert.e, sans management d’équipe
  • Roadmap ambitieuse et long terme

? Profil recherché

  • 5 à 7 ans d’expérience minimum en data engineering / DevOps
  • Bonne maîtrise de GCP , Airflow , Terraform , PostgreSQL , BigQuery
  • Esprit rigoureux, structuré, fiable
  • Posture de partenaire, capacité à dialoguer avec les métiers
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.