Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer (m/w/d) mit Fokus auf Databricks

Metallbau Neyer GmbH & Co. KG

München

Vor Ort

EUR 60.000 - 90.000

Vollzeit

Vor 20 Tagen

Zusammenfassung

Ein wachsendes Münchner Unternehmen sucht einen Dateningenieur für spannende Projekte in verschiedenen Industrien. Der erfolgreiche Kandidat wird für die Entwicklung und Optimierung von Datenpipelines und MLOps in der Azure Cloud verantwortlich sein. Flexibles Arbeiten, Home-Office und ein kollegiales Umfeld sind Teil des Angebots, sowie eine attraktivere Vergütung und Entwicklungsmöglichkeiten.

Leistungen

Attraktive Vergütung
Flexible Arbeitszeiten
Home-Office
Entwicklungsmöglichkeiten

Qualifikationen

  • Erfahrung in der Entwicklung und Optimierung von Datenpipelines.
  • Kenntnisse in CI/CD-Pipelines und DataOps sind vorteilhaft.
  • Fundierte Programmierkenntnisse in Python, Scala oder Java.

Aufgaben

  • Zusammenarbeit mit Data Scientists zur Bereitstellung von Datenlösungen.
  • Entwicklung von Datenpipelines und MLOps Workflows mit Databricks.
  • Aufbau und Betrieb moderner, skalierbarer Datenarchitekturen.

Kenntnisse

Programmierkenntnisse in Python
SQL-Fähigkeiten
Kenntnisse in Databricks
Analytisches Denkvermögen
Teamgeist

Ausbildung

Abgeschlossenes Studium in Informatik, Data Science oder Ingenieurwissenschaften

Tools

Databricks
Apache Spark
Apache Kafka
Azure Cloud Platform

Jobbeschreibung

Spannende und technologisch sehr anspruchsvolle Projekte, unterschiedliche Industrien in einem inhabergeführten, mittelständischen Münchner Unternehmen.

Flache Hierarchien, eine angenehme Arbeitsatmosphäre, geprägt von Teamwork und getreu dem Motto "Work, learn & grow".

Tätigkeiten

  • Zusammenarbeit mit Data Scientists und Data Analysten zur Bereitstellung von Datenlösungen für analytische und maschinelle Anwendungen.
  • Entwicklung und Optimierung von Datenpipelines und MLOps Workflows mit Databricks und anderen Technologien auf der Azure Cloud Platform.
  • Integration von Datenquellen und Verarbeitung großer Datenmengen aus strukturierten und unstrukturierten Quellen.
  • Aufbau und Betrieb moderner, skalierbarer Datenarchitekturen für Echtzeit- und Batch-Verarbeitung.
  • Implementierung und Betreuung von Streaming-Anwendungen mit Technologien wie Flink, Spark Streaming oder Kafka Streams.
  • Sicherstellung von Datenqualität, Sicherheit und Performance in komplexen Datenlandschaften.
    Monitoring, Debugging und Optimierung der bestehenden Dateninfrastruktur.

Anforderungen

  • Abgeschlossenes Studium in Informatik, Data Science, Ingenieurwissenschaften oder eine vergleichbare Qualifikation.
  • Mehrjährige Erfahrung in der Entwicklung von Datenpipelines und in der Arbeit mit modernen Datenarchitekturen.
  • Erfahrung im Aufbau von MLOps Workflows mit Databricks für Machine Learning Projekte.
  • Sehr gute Kenntnisse der Databricks Plattform (z.B. MLFlow, Assett Bundles, Unity Catalog, Delta Lake), Apache Spark, Apache Flink und Apache Kafka.
  • Fundierte Programmierkenntnisse in Python, Scala oder Java, sowie ausgeprägte SQL-Fähigkeiten.
  • Erfahrung mit der Azure Cloud Platform, Kenntnisse in anderen Cloud-Umgebungen (z. B. AWS, GCP) sind ein Plus.
  • Idealerweise Erfahrung mit CI/CD-Pipelines, DataOps und Infrastructure-as-Code (z. B. Terraform).
  • Kenntnisse in weiteren Werkzeugen und Technologien wie Airflow, Kubernetes oder Docker sind ein Plus.
  • Analytisches Denkvermögen, Teamgeist und eine strukturierte, eigenverantwortliche Arbeitsweise.
  • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift.

Team

Warum wir?

Dich erwartet ein kollegiales und dynamisches Umfeld, in das Du Dich vom ersten Tag aktiv einbringen und eigene Ideen in einem motivierten Team umsetzen kannst.

Wir wertschätzen Deine Leistung u.a. mit einer attraktiven Vergütung, flexiblen Arbeitszeiten und Teilzeitmodellen, Home-Office, Entwicklungsmöglichkeiten und Freiraum für Deine Persönlichkeit.

Bewerbungsprozess

Bewerbungsprozess

1. Erstgespräch per Teams mit HR und Fachbereich; fachliche Eignung wird eingeschätzt

2. Zweitgespräch gerne vor Ort (je nach Präferenz des Kandidaten) mit HR und Fachbereich inkl. Use Case Diskussion

3. Angebot

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.