Data Engineer (f / m / x)

Sei unter den ersten Bewerbenden.
Nur für registrierte Mitglieder
Düsseldorf
EUR 50.000 - 60.000
Sei unter den ersten Bewerbenden.
Gestern
Jobbeschreibung

Responsibilities :

Salary : 50.000 - 60.000 per year

Requirements :

  • 3+ Jahre Berufserfahrung als Data Engineer mit Databricks und Apache Spark
  • Ausgeprägte Programmierkenntnisse mit Python, inklusive Erfahrung in Datenmanipulationsbibliotheken (z.B. PySpark, Spark SQL)
  • Erfahrung mit Kernbestandteilen des Databricks Ecosystems: Databricks Workflows, Unity Catalog und Delta Live Tables
  • Solides Wissen über Datenlager-Prinzipien, ETL / ELT-Prozesse, Datenmodellierung und Datenbanksysteme
  • Erfahrung mit mindestens einer größeren Cloud-Plattform (Azure, AWS oder GCP)
  • Ausgezeichnete SQL Skills für Datenabfragen, Datentransformationen und Analysen
  • Ausgezeichnete Kommunikationsfähigkeiten in Englisch und Deutsch (mindestens B2 Level)
  • Fähigkeit, eigenständig sowie im Team in einer agilen Umgebung zu arbeiten

Responsibilities :

  • Als Data Engineer mit Fokus auf Databricks übernimmst du eine zentrale Rolle bei der Entwicklung moderner, skalierbarer und leistungsstarker Datenlösungen für Kunden. Du wirst Teil des wachsenden Data & AI Teams sein und hands-on mit der Databricks Plattform arbeiten, um komplexe Herausforderungen im Bereich Daten zu lösen.
  • Design, Entwicklung und Wartung robuster Datenpipelines mit Databricks, Spark und Python
  • Aufbau effizienter und skalierbarer ETL-Prozesse zum Einlesen, Transformieren und Laden von Daten aus verschiedenen Quellen (Datenbanken, APIs, Streaming-Plattformen) in cloudbasierte Data Lakes und Data Warehouses
  • Nutzung des Databricks-Ökosystems (SQL, Delta Lake, Workflows, Unity Catalog) zur Bereitstellung zuverlässiger und performanter Daten-Workflows
  • Integration mit Cloud-Diensten wie Azure, AWS oder GCP zur Ermöglichung sicherer und kosteneffizienter Datenlösungen
  • Mitgestaltung der Datenmodellierung und -architektur zur Gewährleistung von Konsistenz, Zugänglichkeit und langfristiger Wartbarkeit der Datenlandschaft
  • Gewährleistung der Datenqualität durch Validierungsprozesse und Einhaltung von Data-Governance-Richtlinien
  • Zusammenarbeit mit Data Scientists und Analysten, um Datenbedürfnisse zu verstehen und umsetzbare Lösungen zu liefern
  • Kontinuierliche Weiterbildung in den Bereichen Databricks, Data Engineering und Cloud-Technologien zur Optimierung der Tools und Prozesse

Technologies :

  • Azure
  • CI / CD
  • Cloud
  • Databricks
  • DevOps
  • Support
  • Looker
  • Machine Learning
  • Power BI
  • Python
  • PySpark
  • Spark
  • Terraform
  • Unity
  • GameDev

More :

In den letzten 20 Jahren ist NETCONOMY von einem Startup zu einem 500-köpfigen Team gewachsen, das an 10 Standorten in Europa zusammenarbeitet. Agilität und interdisziplinäre Zusammenarbeit sind Grundpfeiler unserer Arbeitskultur. In einem kreativen Miteinander erschaffen Menschen mit vielfältigen Hintergründen einzigartige digitale Lösungen.

UNSER ANGEBOT :

  • Flexible Arbeitsmodelle: Möglichkeit, hybrid zu arbeiten, selbst zu entscheiden, ob im Büro oder Home Office
  • Karriereentwicklung & Onboarding: Strukturiertes Onboarding, Mentoring und individuelle Schulungsmöglichkeiten
  • Company Summit : Jährlicher firmeninterner NETCONOMY Summit im lockeren, internationalen Austausch
  • Social Events : Regelmäßige Pizza-Abende, Wanderungen, Weihnachtsfeiern und weitere Veranstaltungen
  • Snacks und Wohlbefinden: Lunch Benefit und Rabatte in Partnerrestaurants
  • Mobility Support : Unterstützung für klimafreundliche Transportkosten

Kontakt & Rechtliches :

Brauquartier 2, 8055 Graz, Austria

  • Telefon: 43 316 81 55 44
  • Email: [emailprotected]

Weitere Informationen zu NETCONOMY, den Standorten in Deutschland, Österreich, Schweiz, Serbien, Spanien und den Niederlanden, sowie zu Life at NETCONOMY, Branchen, Partnern und Customer Stories finden sich auf der Website.