Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Data Engineer - Intégration & Cloud Gcp - Bigquery - Talend H / F

AGH Consulting

Paris

Sur place

EUR 45 000 - 60 000

Plein temps

Aujourd’hui
Soyez parmi les premiers à postuler

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une société de conseil recherche un Data Engineer pour un projet stratégique d'intégration et de valorisation de données. Le consultant interviendra sur la création et l'optimisation de pipelines au sein d'un environnement Cloud moderne. Les compétences clés incluent GCP, Talend, SQL et des capacités en automation. Une expérience d'au moins 2 ans est requise, avec une forte autonomie et une bonne documentation des processus. Cette opportunité est basée à Paris, en Île-de-France.

Qualifications

  • 2 ans d'expérience minimum en Data Engineering ou Data Integration.
  • Capacité à être autonome et à proposer des solutions.
  • Solide compréhension des architectures data et cloud.
  • Rigueur, documentation, sens de la qualité.

Responsabilités

  • Créer, optimiser et maintenir des pipelines data entre plusieurs plateformes.
  • Mettre en place des traitements d'ingestion, transformation, normalisation.
  • Développer et optimiser des pipelines dans GCP / BigQuery.
  • Construire et maintenir des jobs Talend pour l'automatisation des traitements.
  • Contribuer à l'optimisation de dashboards Power BI.
  • Documenter les flux et collaborer avec les équipes.

Connaissances

GCP (BigQuery, Storage)
BigQuery (SQL, optimisation, modélisation)
Talend Open Studio (ETL)
API REST (consommation, transformation JSON)
Shell / Bash (scripts avancés)
SQL / MySQL / MariaDB
GitLab (versioning, CI / CD)
Power BI (dashboards, KPI)
Description du poste

Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d'intégration et de valorisation de données au sein d'un environnement Cloud moderne.

Le consultant interviendra sur la création, l'optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d'autonomie technique.

Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL).

Mettre en place des traitements d'ingestion, transformation, normalisation et contrôle qualité des données.

Développer et optimiser des pipelines dans GCP / BigQuery.

Construire et maintenir des jobs Talend pour l'intégration et l'automatisation des traitements.

Automatiser et industrialiser les workflows via des scripts Shell / Bash.

Contribuer à la création et à l'optimisation de dashboards Power BI (KPI, dataviz).

Garantir la qualité, la performance et la conformité des données.

Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques.

Versionner les développements via GitLab et respecter les bonnes pratiques CI / CD.

Compétences indispensables (niveau confirmé / avancé)
  • GCP (BigQuery, Storage)
  • BigQuery (SQL, optimisation, modélisation)
  • Talend Open Studio (ETL)
  • API REST (consommation, transformation JSON)
  • Shell / Bash (scripts avancés)
  • SQL / MySQL / MariaDB
  • GitLab (versioning, CI / CD)
  • Power BI (dashboards, KPI)
Compétences appréciées
  • Python
  • AWS S3
  • Docker
  • Méthodologies Agile (Jira / Confluence)

2 ans d'expérience minimum en Data Engineering ou Data Integration.

Capacité à être autonome et à proposer des solutions.

Solide compréhension des architectures data et cloud.

Rigueur, documentation, sens de la qualité.

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.