Activez les alertes d’offres d’emploi par e-mail !

Data ingénieur / Data ops - Full remote

JR France

Limoges

À distance

EUR 45 000 - 60 000

Plein temps

Il y a 3 jours
Soyez parmi les premiers à postuler

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise à taille humaine spécialiste de la data recherche un Data ingénieur / Data ops en CDI, pour construire une infrastructure data sur GCP. Ce poste propose des responsabilités variées et un impact immédiat avec un mode de travail flexible, axé sur l'autonomie et la collaboration.

Prestations

Culture produit, bienveillance et ouverture à la co-construction
Remote flexible (1 jour toutes les 2 semaines sur Paris)

Qualifications

  • 5 à 7 ans d’expérience minimum en data engineering / DevOps.
  • Bonne maîtrise de GCP, Airflow, Terraform, PostgreSQL, BigQuery.
  • Esprit rigoureux, structuré, fiable.

Responsabilités

  • Déployer et sécuriser une infrastructure data sur GCP.
  • Orchestrer les flux avec Airflow.
  • Gérer les bases PostgreSQL et BigQuery.

Connaissances

GCP
Airflow
Terraform
PostgreSQL
BigQuery

Description du poste

Data ingénieur / Data ops - Full remote, limoges

Notre client est une entreprise à taille humaine, experte de la data, qui développe des solutions innovantes autour de la collecte, de l’analyse et de l’exploitation de données. Dans un contexte de structuration de ses fondations techniques, elle crée aujourd’hui un poste clé au sein de son équipe tech. Ce poste est en CDI, signé directement avec notre client.

? Le contexte

Objectif : professionnaliser une infra data existante (en POC) et construire une stack fiable, sécurisée et scalable sur GCP, dans le respect d’exigences de conformité à venir (ISO 27001).

Un poste complet mêlant build, run, structuration d’outils, et collaboration directe avec les équipes data & produit.

  • Déployer et sécuriser une infrastructure data sur GCP
  • Orchestrer les flux avec Airflow
  • Structurer l’environnement via Terraform (IaC)
  • Mettre en place le monitoring & l’intégration continue
  • Gérer les bases PostgreSQL et BigQuery
  • Fiabiliser les outils existants et les faire évoluer
  • Collaborer avec les Data Scientists, Dev Back & métier

? Stack & méthodes

  • Orchestration : Airflow (déployé en interne)
  • Données traitées en batch , volumétrie en Go

? Pourquoi ce poste ?

  • Création de poste = impact immédiat et concret
  • Culture produit, bienveillance et ouverture à la co-construction
  • Remote flexible (présentiel 1 jour toutes les 2 semaines sur Paris)
  • Autonomie, posture d’expert.e, sans management d’équipe
  • Roadmap ambitieuse et long terme

? Profil recherché

  • 5 à 7 ans d’expérience minimum en data engineering / DevOps
  • Bonne maîtrise de GCP , Airflow , Terraform , PostgreSQL , BigQuery
  • Esprit rigoureux, structuré, fiable
  • Posture de partenaire, capacité à dialoguer avec les métiers
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.