Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer (m / w / d) mit Fokus auf Databricks und modernen Datenarchitekturen

Steadforce GmbH

München

Vor Ort

EUR 55.000 - 90.000

Vollzeit

Vor 30+ Tagen

Erhöhe deine Chancen auf ein Interview

Erstelle einen auf die Position zugeschnittenen Lebenslauf, um deine Erfolgsquote zu erhöhen.

Zusammenfassung

Ein etabliertes Unternehmen in München sucht einen erfahrenen Datenarchitekten, der spannende und technologisch anspruchsvolle Projekte leitet. In dieser Rolle arbeiten Sie eng mit Data Scientists zusammen, um innovative Datenlösungen zu entwickeln und zu optimieren. Sie werden moderne Datenpipelines auf der Azure Cloud Platform aufbauen und betreiben, während Sie sicherstellen, dass Datenqualität und Performance in komplexen Landschaften gewährleistet sind. Diese Position bietet Ihnen die Möglichkeit, in einem dynamischen Team zu arbeiten, Ihre Ideen einzubringen und Ihre Karriere durch flexible Arbeitszeiten und Entwicklungsmöglichkeiten voranzutreiben.

Leistungen

Flexibles Arbeiten
Home-Office
Entwicklungsmöglichkeiten
Attraktive Vergütung

Qualifikationen

  • Erfahrung in der Entwicklung von Datenpipelines und modernen Datenarchitekturen.
  • Fließende Sprachkenntnisse in Deutsch und Englisch sind erforderlich.

Aufgaben

  • Zusammenarbeit mit Data Scientists zur Bereitstellung von Datenlösungen.
  • Entwicklung und Optimierung von Datenpipelines auf der Azure Cloud.

Kenntnisse

Datenpipelines Entwicklung
Databricks
Apache Spark
Apache Flink
Apache Kafka
Python
SQL
Azure Cloud
CI/CD-Pipelines
DataOps

Ausbildung

Studium in Informatik oder Data Science
Ingenieurwissenschaften oder vergleichbare Qualifikation

Tools

Azure Cloud Platform
Terraform
Airflow
Kubernetes
Docker

Jobbeschreibung

Spannende und technologisch sehr anspruchsvolle Projekte, unterschiedliche Industrien in einem inhabergeführten, mittelständischen Münchner Unternehmen.

Flache Hierarchien, eine angenehme Arbeitsatmosphäre, geprägt von Teamwork und getreu dem Motto "Work, learn & grow".

Tätigkeiten
  1. Zusammenarbeit mit Data Scientists und Analysten zur Bereitstellung von Datenlösungen für analytische und maschinelle Anwendungen.
  2. Entwicklung und Optimierung von Datenpipelines mit Databricks und anderen Technologien auf der Azure Cloud Platform.
  3. Integration von Datenquellen und Verarbeitung großer Datenmengen aus strukturierten und unstrukturierten Quellen.
  4. Aufbau und Betrieb moderner, skalierbarer Datenarchitekturen für Echtzeit- und Batch-Verarbeitung.
  5. Implementierung und Betreuung von Streaming-Anwendungen mit Technologien wie Flink, Spark Streaming oder Kafka Streams.
  6. Sicherstellung von Datenqualität, Sicherheit und Performance in komplexen Datenlandschaften.
  7. Monitoring, Debugging und Optimierung der bestehenden Dateninfrastruktur.
Anforderungen
  • Abgeschlossenes Studium in Informatik, Data Science, Ingenieurwissenschaften oder eine vergleichbare Qualifikation.
  • Mehrjährige Erfahrung in der Entwicklung von Datenpipelines und in der Arbeit mit modernen Datenarchitekturen.
  • Sehr gute Kenntnisse in Databricks (z.B. Delta Lake, Unity Catalog, MLFlow), Apache Spark, Apache Flink und Apache Kafka.
  • Fundierte Programmierkenntnisse in Python, Scala oder Java sowie ausgeprägte SQL-Fähigkeiten.
  • Erfahrung mit der Azure Cloud Platform; Kenntnisse in anderen Cloud-Umgebungen (z. B. AWS, GCP) sind von Vorteil.
  • Idealerweise Erfahrung mit CI/CD-Pipelines, DataOps und Infrastructure-as-Code (z. B. Terraform).
  • Kenntnisse in weiteren Werkzeugen und Technologien wie Airflow, Kubernetes oder Docker sind ein Plus.
  • Analytisches Denkvermögen, Teamgeist und eine strukturierte, eigenverantwortliche Arbeitsweise.
  • Fließende Sprachkenntnisse in Deutsch und Englisch.
Team
Warum wir?

Dich erwartet ein kollegiales und dynamisches Umfeld, in das Du Dich vom ersten Tag aktiv einbringen und eigene Ideen in einem motivierten Team umsetzen kannst.

Wir wertschätzen Deine Leistung u.a. mit einer attraktiven Vergütung, flexiblen Arbeitszeiten und Teilzeitmodellen, Home-Office, Entwicklungsmöglichkeiten und Freiraum für Deine Persönlichkeit.

Bewerbungsprozess
  1. Erstgespräch per Teams mit HR und Fachbereich; fachliche Eignung wird eingeschätzt.
  2. Zweitgespräch gerne vor Ort (je nach Präferenz des Kandidaten) mit HR und Fachbereich inklusive Use Case Diskussion.
  3. Angebot.
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.