Job Search and Career Advice Platform

Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer (m/w/d)

Akkodis

Frankfurt

Hybrid

EUR 65.000 - 85.000

Vollzeit

Heute
Sei unter den ersten Bewerbenden

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Zusammenfassung

Ein führender Tech-Dienstleister sucht einen Data Engineer für die Entwicklung innovativer Datenprodukte in Frankfurt am Main. Der Kandidat sollte über sehr gute Kenntnisse in SQL, Scala, und Spark verfügen, sowie Erfahrung in agilen DevOps-Teams und in der Entwicklung von Datenpipelines. Remote-Arbeit ist bis zu 80 % möglich, und der Job beinhaltet die Verantwortung für Datenqualität und die erfolgreiche Umsetzung von Datenprojekten.

Qualifikationen

  • Erfahrung in SCRUM-Teams und Verantwortung im Anwendungsbetrieb.
  • Sehr gute Kenntnisse in SQL, Scala, Spark und Delta Lake.
  • Erfahrung mit Kafka/Event Hubs, Airflow und Microsoft Fabric/Azure.

Aufgaben

  • Mitarbeit in einem agilen DevOps-Team.
  • Entwicklung und Betrieb von Datenpipelines für Streaming und Batch.
  • Entwicklung von Data Warehousing-Artefakten (MySQL) sowie Datenaufbereitung.

Kenntnisse

SQL
Scala
Spark
Delta Lake
Kafka/Event Hubs
Airflow
Microsoft Fabric/Azure
Power BI
MySQL
Datenqualität
GitLab CI
Batch- und Streaming-Architekturen
Jobbeschreibung
🚀 Data Engineer (m/w/d) – Agile DevOps & Data Engineering | Frankfurt / Remote (bis 80 %)

Wir bei [Firmenname], einem führenden Tech-Dienstleister, suchen Data Engineers, die innovative Datenprodukte entwickeln und den fachlichen Betrieb unserer Plattformen verantworten – im Rahmen der Arbeitnehmerüberlassung.

Ihre Aufgaben:
  • Mitarbeit in einem agilen DevOps-Team
  • Fachliche Betriebsführung: CVEs bearbeiten, Daten nachprozessieren, Stakeholderkommunikation
  • Entwicklung und Betrieb von Datenpipelines für Streaming (Kafka/Event Hubs) und Batch (ADLS/S3)
  • Datenaufbereitung in Microsoft Fabric Lakehouses mit Scala, Spark und Delta
  • End-to-End Umsetzung von Datenprodukten: Ingestion, Transformation, Tests, Deployment, Scheduling, Monitoring
  • Entwicklung von Data Warehousing-Artefakten (MySQL) und ggf. Star-Schema-Modellierung
  • Sicherstellung von Datenqualität und DSGVO-konformer Anonymisierung
  • Orchestrierung der Workflows mit Airflow
  • Bereitstellung konsumierbarer Datasets für Analytics in Power BI
  • Zusammenarbeit in Scrum-/SAFe-Teams und saubere Dokumentation
Ihr Profil:
  • Erfahrung in SCRUM-Teams und Verantwortung im Anwendungsbetrieb
  • Sehr gute Kenntnisse in SQL, Scala Spark, Delta Lake
  • Erfahrung mit Kafka/Event Hubs, Airflow und Microsoft Fabric/Azure
  • Kenntnisse in Power BI, MySQL und grundlegender DWH-Modellierung (z. B. Star Schema)
  • Erfahrung mit Datenqualität, Anonymisierung und Datenschutzanforderungen (DSGVO)
  • Vertraut mit GitLab CI für Build/Deploy, Tests und Reviews
  • Verständnis für Batch- und Streaming-Architekturen sowie Performance-Optimierung
  • Optional: Erfahrung mit AWS-Services (S3, EMR, Lambda), Migrationen Richtung Fabric, IaC-Grundlagen
Besonderheiten:
  • Anwesenheit vor Ort: 1–2 Mal pro Woche
  • Remote: bis zu 80 % möglich
  • Offene Vakanzen: 1
  • Beschäftigungsmodell: Arbeitnehmerüberlassung

📍 Standort: Frankfurt am Main

Wenn Sie Lust haben, Daten aktiv zu gestalten und in einem dynamischen Team zu arbeiten, freuen wir uns auf Ihre Bewerbung!

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.