Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer (m/w/d)

shopware AG

Ebbinghoff

Remote

EUR 60.000 - 80.000

Vollzeit

Vor 7 Tagen
Sei unter den ersten Bewerbenden

Erhöhe deine Chancen auf ein Interview

Erstelle einen auf die Position zugeschnittenen Lebenslauf, um deine Erfolgsquote zu erhöhen.

Zusammenfassung

Ein führendes E-Commerce-Unternehmen sucht einen Data Engineer, der mit einem modernen AWS-Techstack und Python arbeitet. Du wirst für den Aufbau und Betrieb der Dateninfrastruktur verantwortlich sein, um hochwertige Daten für Data Scientists und Analysten bereitzustellen. Flexibles Arbeiten ist möglich, und es wird eine offene Unternehmenskultur geboten.

Leistungen

Flexible Arbeitszeiten
Unbefristete Anstellungen
Freie Wahl der Arbeits-Hardware
Betriebliche Altersvorsorge
Gesundheitsprogramme

Qualifikationen

  • Solide Programmierkenntnisse in Python und Erfahrung mit Infrastructure-as-Code.
  • Praktische Erfahrung mit AWS und Echtzeit-Datenverarbeitung.
  • Tiefes Verständnis für Datenmodellierung und analytisches Problemlösen.

Aufgaben

  • Entwickeln und betreiben einer cloud-nativen Datenarchitektur auf AWS.
  • Entwickeln von robusten Ingestionspipelines für Streaming- und Batch-Daten.
  • Implementieren automatisierter Datenqualitätsprüfungen.

Kenntnisse

Python
Data Mindset
Communication

Tools

Terraform
AWS
PySpark

Jobbeschreibung

Shopware ist ein führendes E-Commerce-System, das es Unternehmen weltweit ermöglicht, im digitalen Handel schnell und effizient zu skalieren. Als zukunftsweisende Open-Source-Lösung wird Shopware bereits von einigen der größten europäischen Marken, Einzelhändlern und Herstellern im B2C- und B2B-Bereich eingesetzt.

Um Daten zu einem echten Wachstumstreiber zu machen, entwickelt unser Data & AI Lab das cloud-native Fundament, das Analytics, Machine Learning und KI-gestützte Produktfeatures im gesamten Unternehmen möglich macht.

Als Data Engineer (m/w/d) im Data Platform & Enablement Team gestaltest, baust und betreibst du genau die Dateninfrastruktur, die diese Vision trägt.
Mit einem modernen AWS-Techstack, Python/PySpark und Infrastructure-as-Code entwickelst du skalierbare und zuverlässige Echtzeitlösungen – damit unsere Data Scientists, Analyst:innen und Produktteams jederzeit auf hochwertige Daten zugreifen können.

Diese Position kann vor Ort, hybrid oder auch vollständig remote innerhalb Deutschlands oder in ausgewählten europäischen Ländern, in denen wir registriert sind, ausgeführt werden. Dein Arbeitsort wird im Voraus vereinbart und bildet die Grundlage deines Arbeitsvertrags.


  • Plattform aufbauen & weiterentwickeln
    Du entwirfst, implementierst und betreibst eine cloud-native Datenarchitektur auf AWS (Kinesis, Glue, ECS, Step Functions, DynamoDB), die das Rückgrat aller „Data & AI“-Initiativen bildet.
    Du erstellst und pflegst Terraform-Module, die Best Practices in wiederverwendbare Bausteine verwandeln.

  • Datenintegration & APIs
    Du entwickelst robuste Ingestionspipelines für Streaming- und Batch-Daten.
    Du entwirfst und dokumentierst RESTful APIs, die aufbereitete Datensätze internen und externen Nutzern bereitstellen.

  • Datenverarbeitung & Qualität
    Du schreibst effiziente Datenverarbeitungsanwendungen in Python und PySpark – mit getesteter, versionskontrollierter Codebasis.
    Du implementierst automatisierte Datenqualitätsprüfungen und Observability, damit „kaputte Daten“ nie in die Produktion gelangen.

  • CI/CD & Containerisierung
    Du richtest GitHub-Actions-Pipelines ein und pflegst sie. Außerdem containerisierst du Services mit Docker für reibungslose Deployments und Rollbacks.

  • Zusammenarbeit & Enablement
    Du arbeitest eng mit Cloud Engineers, Data Scientists, Analysten und Produktteams zusammen, um Anforderungen aufzunehmen und in skalierbare Lösungen zu überführen.

Das bringst du mit:
  • Technisches Know-how: Du verfügst über solide Programmierkenntnisse in Python und hast Erfahrung mit Infrastructure-as-Code – idealerweise mit Terraform.

  • Cloud- & Data-Services: Du hast praktische Erfahrung mit AWS, Echtzeit- und Streaming-Datenverarbeitung sowie den relevanten AWS-Diensten.

  • Data Mindset: Du bringst ein tiefes Verständnis für Datenmodellierung, Datenpipelines und analytisches Problemlösen mit.

  • PySpark: Du kennst dich mit PySpark aus und kannst es für die Verarbeitung großer Datenmengen einsetzen.

  • Kommunikation: Du sprichst sehr gut Englisch und hast Freude daran, in einem internationalen und vollständig remote arbeitenden Team erfolgreich zu sein.

  • Interesse an Machine Learning & MLOps: Du begeisterst dich für ML und KI – Erfahrung mit produktiven ML-Anwendungen ist ein Plus, aber kein Muss.

Das bieten wir dir:
  • Unternehmenskultur: Offene Kultur, flache Hierarchien, Eigeninitiative wird gefördert.

  • Arbeitsverträge: Unbefristete Anstellungen bieten langfristige Sicherheit.

  • Flexibilität: Flexible Arbeitszeiten und Optionen für mobiles Arbeiten und Full-Remote-Verträge.

  • Ausstattung: Freie Wahl der Arbeits-Hardware.

  • Onboarding: Gut strukturiertes Onboarding mit Unterstützung durch einen persönlichen "Buddy".

  • Arbeitsumfeld: Inspirierendes Umfeld mit engagierten Kollegen und einer dynamischen Gemeinschaft.

  • Entwicklungsmöglichkeiten: Vielfältige Chancen für persönliches Wachstum und Entwicklung.

  • Zusatzleistungen: Attraktive Benefits wie betriebliche Altersvorsorge, Gesundheitsprogramme und regelmäßige Teamevents.

... und vieles mehr!
Einen detaillierten Einblick bekommst du auf unserer
Karriereseite.

Deine Ansprechperson für diese Stelle ist Carmen Bouraine und steht dir bei Fragen gerne zur Verfügung!

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.