Activez les alertes d’offres d’emploi par e-mail !

Data Engineer Contract (Remote)

JR France

Hauts-de-France

À distance

EUR 45 000 - 55 000

Plein temps

Il y a 9 jours

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise innovante recherche un Data Engineer confirmé pour renforcer son équipe DATA & IA. Le candidat idéal aura plus de 5 ans d'expérience dans le secteur Big Data, avec une réelle maîtrise des outils critiques et des compétences en optimisation des modèles de données. Ce rôle, principalement en télétravail, comprend également un package attractif de rémunération et des avantages variés.

Prestations

Primes de vacances
Tickets restaurant
Programme de formation et certification

Qualifications

  • Expérience confirmée de 5 ans dans les environnements stratégiques.
  • Maîtrise des outils tels que DBT, Apache Hadoop, Spark.
  • Compétences en automatisation avec Python et Shell.

Responsabilités

  • Concevoir, implémenter et optimiser les modèles de données.
  • Déployer et industrialiser les pipelines de collecte et de stockage.
  • Assurer une veille technologique sur les technologies Big Data.

Connaissances

Big Data
DBT
Apache Hadoop
Spark
Snowflake
Apache Airflow
Python
Shell

Description du poste

Data Engineer Contract (Remote), pas-de-calais (62)

Depuis 10 ans, chez L’AGENT X, nous accompagnons grands comptes et ETI dans leurs processus de transformation et d’accélération digitale. Afin de renforcer notre croissance, nous recherchons pour notre pôle DATA & IA un(e) DATA ENGINEER confirmé(e).

Responsabilités :

  1. Concevoir, implémenter et optimiser les modèles visant à stocker et traiter les données.
  2. Implémenter, optimiser et maintenir des algorithmes de traitement de données distribués.
  3. Déployer et industrialiser les pipelines de collecte, d'ingestion et de stockage de données.
  4. Assurer une veille technologique sur les technologies Big Data.

Profil recherché :

Avec une expérience confirmée (au moins 5 ans) dans les environnements stratégiques et critiques, vous maîtrisez :

  • Les outils Big Data tels que DBT, Apache Hadoop, Spark.
  • Snowflake, garantissant une manipulation optimale des données dans le cadre du traitement Big Data.
  • Les outils d'orchestration comme Apache Airflow GCP.
  • L'automatisation avec des scripts (Python, Shell).

Conditions :

  • Package fixe de 45 000 à 55 000 euros bruts + participation + prime.
  • Avantages : Primes de vacances, Tickets restaurant, Télétravail (2/3 jours par semaine), Programme de formation et certification.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.