Activez les alertes d’offres d’emploi par e-mail !

Remote - Senior Data Engineer

JR France

Hauts-de-France

À distance

EUR 45 000 - 55 000

Plein temps

Il y a 6 jours
Soyez parmi les premiers à postuler

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise dynamique dans le secteur des données recherche un(e) Data Engineer confirmé(e) pour concevoir et optimiser des modèles de traitement des données. Vous serez responsable du déploiement de pipelines de données et de la veille sur les technologies Big Data, tout en bénéficiant d'un package attractif avec possibilité de télétravail et de primes.

Prestations

Télétravail (2/3 jours par semaine)
Primes de vacances
Tickets restaurant
Programme de formation et certification

Qualifications

  • Expérience confirmée (au moins 5 ans) dans les environnements stratégiques et critiques.
  • Connaître les outils Big Data et avoir une expertise dans Snowflake.
  • Compétences en scripting (Python, Shell) pour l'automatisation.

Responsabilités

  • Concevoir, implémenter et optimiser des modèles pour le stockage et le traitement de données.
  • Déployer et industrialiser des pipelines de données.
  • Assurer une veille technologique sur les technologies Big Data.

Connaissances

Maîtrise des outils Big Data
Expertise approfondie dans l'utilisation de Snowflake
Compétences en orchestration avec Apache Airflow
Compétences en automatisation avec Python

Outils

DBT
Apache Hadoop
Spark

Description du poste

Remote - Senior Data Engineer, pas-de-calais (62)

Depuis 10 ans, chez L’AGENT X, nous accompagnons grands comptes et ETI dans leurs processus de transformation et d’accélération digitale. Afin de renforcer notre croissance, nous recherchons pour notre pôle DATA & IA un(e) Data Engineer confirmé(e).

Responsabilités :

  1. Concevoir, implémenter et optimiser les modèles visant à stocker et traiter les données.
  2. Implémenter, optimiser et maintenir des algorithmes de traitement de données distribués.
  3. Déployer et industrialiser les pipelines de collecte, d'ingestion et de stockage de données.
  4. Assurer une veille technologique sur les technologies Big Data.

Profil recherché :

  • Expérience confirmée (au moins 5 ans) dans les environnements stratégiques et critiques.
  • Maîtrise des outils Big Data tels que DBT, Apache Hadoop, Spark.
  • Expertise approfondie dans l'utilisation de Snowflake pour une manipulation optimale des données.
  • Compétences en orchestration avec des outils comme Apache Airflow GCP.
  • Compétences en automatisation avec des scripts (Python, Shell).

Rémunération et avantages :

  • Package fixe de 45 000 à 55 000 euros bruts + participation + prime.
  • Avantages : Primes de vacances, Tickets restaurant, Télétravail (2/3 jours par semaine), Programme de formation et certification.
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.