Job Search and Career Advice Platform

Activez les alertes d’offres d’emploi par e-mail !

Data Engineer Expert Elastic Stack H / F

Avanista

Guyancourt

Sur place

EUR 50 000 - 70 000

Plein temps

Il y a 20 jours

Générez un CV personnalisé en quelques minutes

Décrochez un entretien et gagnez plus. En savoir plus

Résumé du poste

Une entreprise spécialisée en IT et ingénierie recherche un expert des technologies de la donnée à Guyancourt. Vous serez responsable de la collecte, transformation et stockage des données, ainsi que de l'automatisation des pipelines d'ingestion. Une expérience d'au moins 5 ans en informatique est requise, ainsi que des compétences en Kafka, Python, SQL et en méthodologie Agile/DevOps. 2 jours de télétravail par semaine sont prévus. Rejoignez une équipe dynamique !

Prestations

2 jours de télétravail par semaine
Mission longue durée

Qualifications

  • Au moins 5 ans d'expérience sur un poste similaire.

Responsabilités

  • Maîtriser la chaine de collecte et mise à disposition des logs.
  • Accompagner les besoins sur la collecte et mise à disposition des données.
  • Concevoir les outils d'automatisation des pipelines d'ingestion.
  • Développer des mécanismes de contrôle qualité des données.
  • Gérer les données de l'entreprise et leur cycle de vie.
  • Assurer le support technique et fonctionnel.

Connaissances

Kafka
Scripting Python
Scripting SQL
Scripting Java
ElasticSearch
Kibana
Apache Flink
LogStash
Agent de collecte
Connaissances en infrastructure
SGBD
Langage de requêtage
Streaming
Architecture d'Entreprise
Méthodologie Agile
DevOps
Gouvernance de la donnée
Anglais

Formation

Formation supérieur en informatique
Description du poste
Avanista recrute !

Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants.

Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien‑être et l'épanouissement de nos collaborateurs.

Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte !

Le contexte ?

La transformation des SI de nos Clients vers des architectures modulaires, type micro‑services, l'essor de nos infrastructures et l'évolution des technologies associées, ou encore l'automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l'organisation de la société et de ses Clients (équipes applicatives et socles multiples et dispersées).

Vos missions ?
  • Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs
  • Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data
  • Concevoir et mettre à disposition les outils et processus (CI / CD) permettant d'automatiser les pipelines d'ingestion de données prenant en compte les besoins de fréquences (batch, temps réel)
  • Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données
Pour réaliser la mission, vous serez à même de :
  • Participer à la conception des solutions techniques et fonctionnelles
  • Gérer les données de l'entreprise (flux : collecte, traitement, stockage et leur cycle de vie)
  • Rédiger les documents fonctionnels et techniques, d'exploitation, en veillant au respect des normes existantes
  • Mettre en oeuvre en mode DevOps (CI / CD)
  • Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes
  • Être en relation avec les équipes opérationnelles de l'entreprise pour prise en compte des flux de données
  • Développer les cas d'usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs
C'est votre truc ?

De formation supérieur en informatique vous bénéficiez d'au moins 5 ans d'expérience sur un poste similaire.

Compétences techniques :
  • Kafka
  • Scripting Python / SQL / Java
  • Suite Elastic (ElasticSearch / Kibana)
  • Apache Flink / LogStash
  • Agent de collecte (Elastic ou autre Open-Source)
  • Connaissances en infrastructure : réseau / système
  • Connaissance indispensable en SGBD et langage de requêtage
  • Connaissance forte en streaming
  • Architecture d'Entreprise, plus particulièrement en base de données, flux de données
  • Conception et mise en place de solution de stockage et ingestion de données
  • Méthodologie Agile / DevOps, maitrise des outils associés
  • Gouvernance de la donnée
  • Maitrise de divers langages de programmation (Java / Python)
  • Anglais
Qualités humaines
  • Curieux et force de propositions
  • Esprit d'analyse, rigueur, sens de la méthode
  • Capacités relationnelles et travail en équipe
  • Disponibilité et réactivité
  • Sens du service et respect des engagements
  • Communication (écrite et orale) claire et concise
Localisation : Guyancourt (78)

2j de télétravail / semaine. Démarrage / Durée : ASAP, mission longue durée. Statut : CDI / Freelance.

Si votre profil répond aux critères ci-dessus, Lilia se chargera de vous contacter par téléphone, suivi d'un entretien avec elle et l'opérationnel en charge du besoin. Si votre profil est validé, nous enverrons votre CV au client pour un ultime entretien avant votre démarrage ;)

Vous avez du talent ? Nous avons les défis.

N'hésitez plus et postulez !

Compétences : Stack Elastic, OpenSource

Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.