Aktiviere Job-Benachrichtigungen per E-Mail!

IT – Datalab, Data Engineering Big Data, Splunk Senior – München/remote (m/w/d)

Westhouse Group

München

Remote

EUR 60.000 - 100.000

Vollzeit

Vor 30+ Tagen

Erhöhe deine Chancen auf ein Interview

Erstelle einen auf die Position zugeschnittenen Lebenslauf, um deine Erfolgsquote zu erhöhen.

Zusammenfassung

Ein etabliertes internationales Recruitment Unternehmen sucht einen erfahrenen Datalab und Data Engineering Experten für eine spannende Rolle in München oder remote. In dieser Position werden Sie für den Aufbau und die Modellierung von Datenstrukturen im Data Warehouse verantwortlich sein. Sie arbeiten eng mit internen und externen Teams zusammen, um innovative Datenlösungen zu entwickeln und zu implementieren. Diese Rolle bietet die Möglichkeit, an bedeutenden Projekten in einem dynamischen Umfeld teilzunehmen und Ihre Fähigkeiten in modernen Datenarchitekturen zu erweitern. Wenn Sie eine Leidenschaft für Daten haben und in einem agilen Team arbeiten möchten, freuen wir uns auf Ihre Bewerbung.

Qualifikationen

  • Sehr gute Kenntnisse in Datenmodellierung und SQL.
  • Erfahrung in CI/CD und Datenintegrationstools.

Aufgaben

  • Auf- und Umbau von Datenstrukturen im Data Warehouse.
  • Erstellung komplexer Business Transformationen mit dbt und Snowflake.

Kenntnisse

Datenmodellierung
SQL
DBT
Python
CI/CD Tools
Azure Data Factory
Airflow

Tools

Snowflake
Fivetran

Jobbeschreibung

Westhouse ist eines der führenden internationalen Recruitment Unternehmen für die Vermittlung von hochqualifizierten Fachexperten in Bereichen wie IT Life Cycle, SAP, Engineering, Kaufmännischem und Fachberatung.

Für unseren Kunden suchen wir aktuell eine/n


IT – Datalab, Data Engineering Big Data, Splunk Senior – München / remote (m/w/d) - München


Rahmeninformationen
  • Referenz: 173842
  • Start: 2025-06-02
  • Standort: München
  • Arbeitsumfang: full-time
Ihre Qualifikationen
  • Sehr gute Datenmodellierungskenntnisse, idealerweise auch in Data Vault 2.0.
  • Sehr gute Kenntnisse in SQL und DBT, gute Python Kenntnisse und Erfahrung in CI/CD Tools.
  • Idealerweise Erfahrung mit Azure Data Factory und Airflow
Ihre Aufgaben
  • Auf- und Umbau von Daten und Strukturen (Data Vault) in das Data Warehouse
  • Logische und technische Modellierung Raw- und Business-Vault sowie darüberliegender Applikationslayer / Datenprodukte
  • Erstellung komplexer Business Transformationen mittels dbt und Snowflake- SQL
  • Orchestrierung dbt mit Airflow. Neue Airflow DAGs erstellen, bestehende Airflow DAGs konfigurieren.
  • Anbindung von Quellsystemen an die Snowflake DB mit ADF, Fivetran oder anderen Tools
  • Teilnahme an Projektmeetings im Rahmen des Scrum Prozesses. Dies schließt Daily Meetings, Sprint Review und Retrospektive ein.
  • Koordination mit internen und externen Kollegen/Innen im Rahmen der übertragenen Arbeitspakete
Interessiert?

Wir freuen uns auf Ihre aussagekräftigen Bewerbungsunterlagen in elektronischer Form.

Ihre Ansprechpartner

Sonya Kalaai
P: +49-89-383772109
E: s.kalaai@westhouse-consulting.com
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.