Data Engineer (f / m / x)

Sei unter den ersten Bewerbenden.
Nur für registrierte Mitglieder
Menden (Sauerland)
EUR 55.000 - 75.000
Sei unter den ersten Bewerbenden.
Vor 5 Tagen
Jobbeschreibung

Responsibilities:

  • Als Data Engineer mit Fokus auf Databricks spielst du eine zentrale Rolle bei der Entwicklung moderner, skalierbarer und leistungsstarker Datenlösungen für Kunden. Du wirst Teil des wachsenden Data & AI Teams sein und hands-on mit der Databricks Plattform arbeiten, um komplexe Herausforderungen im Datenbereich zu lösen.
  • Design, Entwicklung und Wartung robuster Datenpipelines mit Databricks, Spark und Python.
  • Aufbau effizienter und skalierbarer ETL-Prozesse zum Einlesen, Transformieren und Laden von Daten aus verschiedenen Quellen (Datenbanken, APIs, Streaming-Plattformen) in cloudbasierte Data Lakes und Data Warehouses.
  • Nutzung des Databricks-Ökosystems (SQL, Delta Lake, Workflows, Unity Catalog) zur Bereitstellung zuverlässiger und performanter Daten-Workflows.
  • Integration mit Cloud-Diensten wie Azure, AWS oder GCP zur Ermöglichung sicherer und kosteneffizienter Datenlösungen.
  • Mitgestaltung der Datenmodellierung und -architektur zur Gewährleistung von Konsistenz, Zugänglichkeit und langfristiger Wartbarkeit der Datenlandschaft.
  • Gewährleistung der Datenqualität durch Validierungsprozesse und Einhaltung von Data-Governance-Richtlinien.
  • Zusammenarbeit mit Data Scientists und Analysten, um Datenbedürfnisse zu verstehen und umsetzbare Lösungen zu liefern.
  • Kontinuierliche Weiterbildung in den Bereichen Databricks, Data Engineering und Cloud-Technologien zur Optimierung der Tools und Prozesse.

Requirements:

  • Mehr als 3 Jahre Berufserfahrung als Data Engineer mit Databricks und Apache Spark.
  • Ausgeprägte Programmierkenntnisse in Python, inklusive Erfahrung mit Datenmanipulationsbibliotheken (z.B. PySpark, Spark SQL).
  • Erfahrung mit Kernbestandteilen des Databricks-Ökosystems: Databricks Workflows, Unity Catalog und Delta Live Tables.
  • Solides Wissen über Datenlager-Prinzipien, ETL/ELT-Prozesse, Datenmodellierung und Datenbanksysteme.
  • Erfahrung mit mindestens einer größeren Cloud-Plattform (Azure, AWS oder GCP).
  • Ausgezeichnete SQL Skills für Datenabfragen, Transformationen und Analysen.
  • Ausgezeichnete Kommunikationsfähigkeiten in Englisch und Deutsch (mindestens B2 Level).
  • Fähigkeit, eigenständig sowie im Team in einer agilen Umgebung zu arbeiten.

Additional Information:

NETCONOMY ist in den letzten 20 Jahren von einem Startup zu einem 500-köpfigen Team gewachsen, das an 10 Standorten in Europa zusammenarbeitet. Agile und interdisziplinäre Zusammenarbeit sind Grundpfeiler unserer Unternehmenskultur. Wir schaffen gemeinsam mit Menschen aus vielfältigen Hintergründen einzigartige digitale Lösungen.

Unser Angebot:

  • Flexible Arbeitsmodelle: Möglichkeit, hybrid zu arbeiten, selbst zu entscheiden, ob im Büro oder Home Office.
  • Karriereentwicklung & Onboarding: Strukturiertes Onboarding, Mentoring und individuelle Schulungsmöglichkeiten.
  • Company Summit: Jährlicher firmeninterner NETCONOMY Summit im lockeren, internationalen Austausch.
  • Social Events: Regelmäßige Pizza-Abende, Wanderungen, Weihnachtsfeiern und weitere Veranstaltungen.
  • Snacks und Wohlbefinden: Lunch Benefit und Rabatte in Partnerrestaurants.
  • Mobilitätsunterstützung: Unterstützung für klimafreundliche Transportkosten.

Kontakt & Rechtliches:

Brauquartier 2, 8055 Graz, Austria

Telefon: 43 316 81 55 44

Email: [email protected]

Weitere Informationen zu NETCONOMY, den Standorten in Deutschland, Österreich, Schweiz, Serbien, Spanien und den Niederlanden, sowie zu Life at NETCONOMY, Branchen, Partnern und Customer Stories finden Sie auf unserer Website.