Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer (gn)

workidentity

Deutschland

Hybrid

EUR 55.000 - 85.000

Vollzeit

Vor 30+ Tagen

Erhöhe deine Chancen auf ein Interview

Erstelle einen auf die Position zugeschnittenen Lebenslauf, um deine Erfolgsquote zu erhöhen.

Zusammenfassung

Ein international aufgestelltes Unternehmen sucht einen erfahrenen Data Engineer, der für den Aufbau und die Wartung effizienter Datenpipelines verantwortlich ist. In dieser spannenden Rolle werden Sie Daten aus verschiedenen Quellen erfassen, verarbeiten und speichern, während Sie sicherstellen, dass die Datenqualität und -integrität gewährleistet sind. Sie werden mit modernen Tools wie Snowflake und Azure Data Factory arbeiten und die Integration von IoT-Daten über Azure IoT Hub unterstützen. Das Unternehmen bietet ein flexibles Arbeitszeitmodell und eine hybride Homeoffice-Lösung, die es Ihnen ermöglicht, Ihre Work-Life-Balance zu optimieren. Wenn Sie ein leidenschaftlicher Datenexperte sind, ist dies die perfekte Gelegenheit für Sie.

Leistungen

Unbefristete Festanstellung
Flexibles Arbeitszeitmodell
Hybride Homeoffice-Lösung
30+ Urlaubstage
Weiterbildungsangebote
Urlaubsgeld
Bonuszahlungen
Fitnessstudio vor Ort
Kantine mit Essenszulagen
Fahrtkostenzuschuss

Qualifikationen

  • Mindestens 5 Jahre Erfahrung als Data Engineer oder in einer vergleichbaren Position.
  • Fundierte Erfahrung mit Datenpipeline-Tools und ETL-Prozessen.

Aufgaben

  • Aufbau und Wartung effizienter Datenpipelines zur Verarbeitung von Daten.
  • Entwicklung und Optimierung von ETL-Prozessen zur Datenintegration.

Kenntnisse

Datenpipeline-Tools
ETL-Prozesse
SQL
Data Governance
Python
IoT-Integration
Datenvisualisierung
Cloud-Computing
Big-Data-Technologien
Datenmodellierung

Ausbildung

Bachelor in Informatik
Bachelor in Informationstechnologie
Bachelor in Ingenieurwesen

Tools

Snowflake
Azure Data Factory
Apache Airflow
Microsoft Power BI
Azure IoT Hub

Jobbeschreibung

Einleitung

Für meinen Stammkunden suche ich einen Data Engineer (gn). Das international aufgestellte Hamburger Unternehmen beschäftigt insgesamt rund 2000 Mitarbeitende, davon ca. 60 innerhalb der IT.

Deine Aufgaben

  • Aufbau und Wartung effizienter und skalierbarer Datenpipelines zur Erfassung, Verarbeitung und Speicherung von Daten aus verschiedenen Quellen.
  • Sicherstellung der Datenqualität, -integrität und -verfügbarkeit.
  • Gestaltung und Implementierung von Datenbankschemata und -strukturen, die eine optimale Speicherung, Abfrage und Verarbeitung der Daten ermöglichen.
  • Entwicklung, Verwaltung und Optimierung von ETL-Prozessen, um Daten aus verschiedenen Quellen zu extrahieren, zu transformieren und in Zielsysteme zu laden.
  • Sicherstellung einer zeitnahen und präzisen Datenbereitstellung.
  • Nutzung von Snowflake und Azure Data Factory zur Verwaltung cloudbasierter Data-Warehouse- und Datenintegrationsprozesse.
  • Sicherstellung einer effizienten Datenspeicherung und -zugänglichkeit.
  • Integration von IoT-Daten mithilfe von Azure IoT Hub, um eine Echtzeit-Datenverarbeitung und -analyse zu ermöglichen.
  • Implementierung und Verwaltung von Daten-Workflows mit Apache Airflow, um ETL-Prozesse und andere datenbezogene Aufgaben zu automatisieren und zu steuern.
Dein Profil

  • Abgeschlossenes Bachelor-Studium in Informatik, Informationstechnologie, Ingenieurwesen oder einem verwandten Bereich.
  • Mindestens 5 Jahre Erfahrung als Data Engineer oder in einer vergleichbaren Position.
  • Fundierte Erfahrung mit Datenpipeline-Tools und -Techniken.
  • Sehr gute Kenntnisse in Snowflake und Azure Data Factory.
  • Erfahrung mit der Integration von IoT-Daten über Azure IoT Hub.
  • Praktische Erfahrung mit Apache Airflow zur Workflow-Automatisierung.
  • Expertenwissen in ETL-Prozessen und den dazugehörigen Tools.
  • Starke SQL-Kenntnisse und Erfahrung mit relationalen Datenbanken.
  • Vertraut mit Datenmodellierungsprinzipien und Best Practices.
  • Erfahrung mit Datenvisualisierungstools, insbesondere Microsoft Power BI.
  • Kenntnisse in Cloud-Computing-Konzepten, insbesondere Microsoft Azure.
  • Erfahrung mit weiteren Cloud-Plattformen wie AWS oder Google Cloud.
  • Vertraut mit Big-Data-Technologien wie Hadoop, Spark oder Kafka.
  • Erfahrung mit Python oder anderen Skriptsprachen.
  • Kenntnisse in Data Governance und Datenqualitäts-Frameworks.
  • Sehr gute Deutsch- und Englischkenntnisse erforderlich.
Benefits

  • Eine unbefristete Festanstellung in Vollzeit (37,5 Std./ Woche bei Vollzeit)
  • Flexibles Arbeitszeitmodell
  • Eine hybride Homeoffice-Lösung (2-4 Tage Homeoffice/ Woche möglich)
  • 30+ Urlaubstage
  • Interne & externe Weiterbildungsangebote
  • Urlaubsgeld, Bonuszahlungen, BAV & VWL
  • Fitnessstudio vor Ort, Kantine mit Essenszulagen, Fahrtkostenzuschuss, Jobrad, Mitarbeiter- & Teamevents
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.