Job Search and Career Advice Platform

Aktiviere Job-Benachrichtigungen per E-Mail!

Data Architect – Azure Databricks (m/w/d)

Westhouse Group

Frankfurt

Hybrid

EUR 70.000 - 90.000

Teilzeit

Heute
Sei unter den ersten Bewerbenden

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Zusammenfassung

Ein führendes Recruitment Unternehmen sucht einen Data Architect – Azure Databricks für ein Remote-Projekt in Frankfurt am Main. Der ideale Kandidat hat mindestens 5 Jahre Erfahrung in der Datenarchitektur und -modellierung sowie Kenntnisse in Azure Databricks und verwandten Technologien. Zu den Aufgaben gehören die Beratung zur Entwicklung eines skalierbaren Data Lakehouse, Datenintegration aus verschiedenen Quellen und die Implementierung von Datenpipelines. Wir freuen uns auf Ihre Bewerbung.

Qualifikationen

  • Mindestens 5 Jahre Erfahrung in relevanten Technologien.
  • Umfangreiche praktische Erfahrung in typischen Data Architect-Aufgaben.
  • Fundierte Kenntnisse in Datenmodellierung und Datenarchitekturen erforderlich.

Aufgaben

  • Beratung zur Architekturdefinition und Entwicklung eines Data Lakehouse.
  • Durchführung der Datenintegration aus verschiedenen Quellsystemen.
  • Implementierung von Datenpipelines für Batch- und Streamverarbeitung.

Kenntnisse

Azure Databricks
Datenmodellierung
Datenarchitekturen
Data Engineering im Cloud-Umfeld
Big Data Environments
Confluent Certified Developer Zertifizierung
Deutsch (B2/C1/C2)

Tools

Spark
Azure Data Lake Storage
dbt
Scala
API-Entwicklung
Jobbeschreibung

Westhouse ist eines der führenden internationalen Recruitment Unternehmen für die Vermittlung von hochqualifizierten Fachexperten in Bereichen wie IT Life Cycle, SAP, Engineering, Kaufmännischem und Fachberatung.

Für unseren Kunden suchen wir aktuell eine/n

Data Architect – Azure Databricks (m/w/d) - Remote, Frankfurt am Main
Rahmeninformationen
  • Referenz: 177108
  • Start: 2026-02-09
  • Dauer: 15.02.2026 - 31.12.2026
  • Standort: Remote, Frankfurt am Main
  • Arbeitsumfang: part-time150 PT, davon 0 PT vor Ort
  • Sprachen: Deutsch
Ihre Qualifikationen
  • (MUSS) 5 Jahre Erfahrung in relevanten Technologien (z. B. Azure Databricks, Spark, Data Lakehouse-Architekturen, Data Engineering im Cloud-Umfeld, Datenmodellierung)
  • (MUSS) 5 Jahre Erfahrung in typischen Data Architect-Aufgaben (z. B. Entwicklung von Datenarchitekturen, Datenmodellierung, Datenbank-Designs, Überwachung der Datenintegrität, Migrationen, Einhaltung von Datenschutz und Compliance)
  • (MUSS) Kenntnisse in der Integration und Verarbeitung von Streaming- und Batch-Datenquellen sowie Datenmodellierung und -transformation mit Databricks und dbt, einschließlich der Umsetzung von Bronze-, Silver- und Gold-Layer-Konzepten aus 5 Projekten
  • (MUSS) 5 Jahre Erfahrung in den im Technologiekatalog geforderten Bereichen (z. B. Spark, Azure Data Lake Storage, dbt, Scala, API-Entwicklung, Big Data Environments)
  • (MUSS) Confluent Certified Developer Zertifizierung
  • (SOLL) Azure Platform Architect Badge von Azure Databricks
  • (SOLL) 3 Jahre Erfahrung in der Implementierung von Data-Governance-Prozessen auf Basis von Azure Databricks (z. B. Richtlinien, Prozessdokumentationen oder Referenzprojekte)
  • (SOLL) Deutsch in Wort und Schrift – Level B2 / C1 / C2 etc. oder äquivalent.
Ihre Aufgaben
  • Beratung zur Architekturdefinition und Entwicklung eines einheitlichen, skalierbaren Data Lakehouse auf Basis von Azure Databricks, Azure Data Lake Storage (ADLS), dbt und Microsoft Fabric
  • Durchführung der Datenintegration aus verschiedenen Quellsystemen (insb. Streaming/Event-Daten wie IoT, Kafka, MQTT; dateibasierte Quellen wie CSV, JSON, XML; API-gestützte und virtualisierte Datequellen)
  • Implementierung von Datenpipelines für Batch- und Streamverarbeitung mit Databricks und dbt, inklusive Datenqualitätsprüfungen und Metadatenmanagement
  • Transformation und Modellierung von Daten entlang der Medaillon-Architektur (Bronze-, Silver-, Gold-Layer)
  • Migration bestehender Datenflüsse und Datenmodelle (z. B. von SSIS, Microsoft SQL Server, RDS Postgres SQL, AWS S3) in die neue Architektur
  • Aufbau und Pflege eines zentralen Metastores und Rechtekonzepts (Unity Catalog, AAD-Authentifizierung)
  • Entwicklung und Umsetzung von Data Governance-Prozessen, einschließlich Compliance, Datenschutz, Zugriffskontrolle und Qualitätssicherung
  • Bereitstellung von Datenprodukten und Self-Service Data Analytics für Fachbereiche über MS Fabric und Denodo
  • Durchführung von Datenanalysen und Advanced Analytics, inklusive Integration von Machine Learning-Modellen
  • Erstellung von System- und Betriebsdokumentationen sowie Schulungsunterlagen für die neue Plattform
  • Durchführung von Performance- und Kostenanalysen mit dem Ziel der Betriebsoptimierung
  • Beratung zur Einhaltung von Informationssicherheits- und Compliance-Anforderungen
  • Unterstützung bei der Automatisierung und Standardisierung der Betriebsprozesse (z. B. Self-Service Data Engineering, Data as a Service, Analytics as a Service)
Interessiert?

Wir freuen uns auf Ihre aussagekräftigen Bewerbungsunterlagen in elektronischer Form.

Ihre Ansprechpartner

Sven Schäfer
P: +49-21-120053120
E: s.schaefer@westhouse-group.com

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.