
Aktiviere Job-Benachrichtigungen per E-Mail!
Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf
Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren
Ein Unternehmen im Bereich Datenengineering sucht einen erfahrenen Data Engineer in Köln. In dieser Rolle baust du Datenpipelines für die digitale Transformation und arbeitest an einem Greenfield-Projekt zur Integration von ERP-Systemen. Du profitierst von einem modernen Tech-Stack mit AWS, Python und Terraform und hast die Möglichkeit, Rückmeldungen von erfahrenen Ingenieuren zu erhalten. Diese Position bietet ein hybrides Arbeitsmodell, bei dem du zwei Tage im Büro und drei Tage flexibel von einem Ort deiner Wahl arbeiten kannst.
Daten sind für dich nicht nur Nullen und Einsen, sondern die Grundlage für gute Entscheidungen? Du findest Freude daran, aus chaotischen Legacy-Systemen saubere Datenstrukturen zu schaffen? Du denkst in Pipelines, nicht in Skripten? Fehlerbehandlung und Retry-Logik sind für dich selbstverständlich, nicht optional? Du möchtest von erfahrenen Engineers lernen und gleichzeitig eigene Ideen umsetzen? Dann bist du bei uns richtig!
Must-haves:
Nice-to-haves:
Was wir bieten:
Als Data Engineer baust du die Datenpipelines auf, die unsere digitale Transformation ermöglichen. Du bist verantwortlich für den sauberen, zuverlässigen und skalierbaren Datenfluss zwischen hunderten ERP-Systemen und unserer modernen Datenarchitektur.
Data Pipeline Engineering: Du designst und implementierst robuste ETL/ELT-Pipelines, die Daten aus mehreren hundert ERP-Systemen zuverlässig extrahieren, transformieren und laden. Dabei setzt du auf moderne Orchestrierungs-Tools und sorgst dafür, dass auch bei komplexen Datenflüssen alles reibungslos läuft. Du baust Pipelines, die nicht nur funktionieren, sondern auch wartbar und erweiterbar sind.
Data Lake & Data Warehouse Architektur: Du baust unsere Data Lake Infrastruktur auf AWS von Grund auf mit auf. Dabei strukturierst du Daten sinnvoll, implementierst Data Governance Konzepte und sorgst dafür, dass Daten für Analytics und Business Intelligence optimal aufbereitet sind. Du verstehst den Unterschied zwischen Raw, Staging und Curated Data und setzt entsprechende Architekturen um.
Greenfield Projekt – Legacy System Integration: Du bist mittendrin in einem spannenden Greenfield-Projekt: Die Integration von mehreren hundert Legacy-ERP-Systemen. Das ist keine Standard-Integration – hier geht es um komplexe Datenstrukturen, unterschiedliche Formate und die Herausforderung, aus heterogenen Quellen ein konsistentes Datenmodell zu schaffen.
Workflow Orchestrierung & Reliability: Du implementierst resiliente Workflows für zeitkritische Datenverarbeitungen. Dabei setzt du auf moderne Orchestrierungs-Patterns und sorgst dafür, dass Pipelines auch bei Fehlern kontrolliert weiterlaufen oder wiederanlaufen. Du baust Monitoring und Alerting, damit Probleme erkannt werden, bevor sie zu echten Ausfällen führen.
Zusammenarbeit & Weiterentwicklung: Du arbeitest eng mit unserem Staff Engineer, den Product Ownern und dem ~10-köpfigen Dev-Team zusammen. Dabei lernst du von erfahrenen Kolleg:innen und bringst gleichzeitig deine eigenen Ideen ein. Du wächst mit den Herausforderungen und entwickelst dich kontinuierlich weiter.
Datenqualität & Dokumentation: Du implementierst Data Quality Checks und sorgst dafür, dass schlechte Daten gar nicht erst in unsere Systeme kommen. Du dokumentierst Datenflüsse und Transformationslogik, damit auch andere verstehen, was mit den Daten passiert.