Activez les alertes d’offres d’emploi par e-mail !

Data Engineer (IT) / Freelance

ALLEGIS GROUP

Paris

Sur place

EUR 45 000 - 75 000

Plein temps

Il y a 16 jours

Mulipliez les invitations à des entretiens

Créez un CV sur mesure et personnalisé en fonction du poste pour multiplier vos chances.

Résumé du poste

Une entreprise dynamique recherche un Data Engineer pour rejoindre son équipe. Dans ce rôle, vous serez responsable de l'intégration et de la transformation des données, tout en veillant à leur qualité et à leur utilisation optimale. Vous travaillerez en étroite collaboration avec diverses équipes pour améliorer les processus de données et mettre en place des solutions innovantes. Si vous êtes passionné par les données et souhaitez évoluer dans un environnement collaboratif, cette opportunité est faite pour vous.

Qualifications

  • Expérience en développement Python et SQL est indispensable.
  • Connaissance des outils de CI/CD et des systèmes de gestion des données.

Responsabilités

  • Contribuer à l'évolution de la plateforme de données et assurer la qualité des données.
  • Intégrer et transformer des données avec DBT et gérer des déploiements avec Ansible.

Connaissances

SQL
Python
DBT
Snowflake
Airflow
GitLab CI
Kafka
InfluxDB
ELK
Ansible
Terraform
Docker
Helm
Argo CD
K8S

Description du poste

TEKsystems recherche pour l'un de ses clients grands comptes un data engineer :

MISSION PRINCIPALE

Dans le cadre de notre développement de la plateforme de données, le data engineer aura pour mission de contribuer à son évolution, de veiller à la qualité des données et d'assurer un cycle de vie efficace des données, de leur production à leur utilisation optimale. Membre de l'équipe CIO, le data engineer travaillera en étroite collaboration avec les différentes équipes de l'entreprise, notamment l'équipe BI. De plus, il/elle sera chargé(e) d'accompagner les producteurs de données dans l'intégration de nouvelles sources de données.

ACTIVITÉS PRINCIPALES
  1. Intégration et transformation des données avec DBT
  2. Mise en place de tests sur les données
  3. Ingestion de données avec notre API (Python) sur Kafka
  4. Déploiements avec Ansible et/ou Terraform selon les besoins
  5. Mise en place d'alertes et/ou de monitoring
  6. Participer aux routines de l'équipe (weekly, sprint planning, daily standup)
  7. Participer activement à l'évolution des stacks data et des métriques de l'entreprise, en collaboration avec les différentes PU
  8. Travailler à la refonte de la plateforme de remontée de métriques
Profil candidat : COMPÉTENCES TECHNIQUES
  • SQL (expérience préalable avec DBT est un plus)
  • Snowflake
  • Développement en Python indispensable
  • Airflow
  • GitLab CI (ou autres pipelines d'intégration continue)
  • Kafka, InfluxDB, ELK
  • Docker, Helm, Argo CD, K8S
  • Ansible, Terraform
Obtenez votre examen gratuit et confidentiel de votre CV.
ou faites glisser et déposez un fichier PDF, DOC, DOCX, ODT ou PAGES jusqu’à 5 Mo.