Activez les alertes d’offres d’emploi par e-mail !

Data ingénieur / Data ops - Full remote

JR France

Saint-Brieuc

À distance

EUR 55 000 - 85 000

Plein temps

Il y a 5 jours
Soyez parmi les premiers à postuler

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise experte de la data, située à Saint-Brieuc, cherche un Data ingénieur / Data ops pour rejoindre son équipe tech. Le poste, en CDI, implique le déploiement d'une infrastructure data sur GCP et la collaboration avec les équipes data et produit. Avec une roadmap ambitieuse, cette rôle offre une autonomie et un impact immédiat sur la professionnalisation de l'infrastructure data.

Prestations

Remote flexible
1 jour présentiel toutes les 2 semaines sur Paris
Culture produit et co-construction

Qualifications

  • 5 à 7 ans d’expérience minimum en data engineering / DevOps.
  • Bonne maîtrise de GCP, Airflow, Terraform, PostgreSQL et BigQuery.
  • Esprit rigoureux, structuré, fiable.

Responsabilités

  • Déployer et sécuriser une infrastructure data sur GCP.
  • Orchestrer les flux avec Airflow.
  • Gérer les bases PostgreSQL et BigQuery.

Connaissances

GCP
Airflow
Terraform
PostgreSQL
BigQuery
Structuré
Fiable

Description du poste

Data ingénieur / Data ops - Full remote, saint-brieuc

saint-brieuc, France

Notre client est une entreprise à taille humaine, experte de la data, qui développe des solutions innovantes autour de la collecte, de l’analyse et de l’exploitation de données. Dans un contexte de structuration de ses fondations techniques, elle crée aujourd’hui un poste clé au sein de son équipe tech. Ce poste est en CDI, signé directement avec notre client.

? Le contexte

Objectif : professionnaliser une infra data existante (en POC) et construire une stack fiable, sécurisée et scalable sur GCP, dans le respect d’exigences de conformité à venir (ISO 27001).

Un poste complet mêlant build, run, structuration d’outils, et collaboration directe avec les équipes data & produit.

  • Déployer et sécuriser une infrastructure data sur GCP
  • Orchestrer les flux avec Airflow
  • Structurer l’environnement via Terraform (IaC)
  • Mettre en place le monitoring & l’intégration continue
  • Gérer les bases PostgreSQL et BigQuery
  • Fiabiliser les outils existants et les faire évoluer
  • Collaborer avec les Data Scientists, Dev Back & métier

? Stack & méthodes

  • Orchestration : Airflow (déployé en interne)
  • Données traitées en batch , volumétrie en Go

? Pourquoi ce poste ?

  • Création de poste = impact immédiat et concret
  • Culture produit, bienveillance et ouverture à la co-construction
  • Remote flexible (présentiel 1 jour toutes les 2 semaines sur Paris)
  • Autonomie, posture d’expert.e, sans management d’équipe
  • Roadmap ambitieuse et long terme

? Profil recherché

  • 5 à 7 ans d’expérience minimum en data engineering / DevOps
  • Bonne maîtrise de GCP , Airflow , Terraform , PostgreSQL , BigQuery
  • Esprit rigoureux, structuré, fiable
  • Posture de partenaire, capacité à dialoguer avec les métiers
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.