Aktiviere Job-Benachrichtigungen per E-Mail!

Cloud Native Data Engineering (m/w/d)

Westhouse Group

Frankfurt

Hybrid

EUR 65.000 - 90.000

Vollzeit

Vor 6 Tagen
Sei unter den ersten Bewerbenden

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Starte ganz am Anfang oder importiere einen vorhandenen Lebenslauf

Zusammenfassung

Westhouse Group sucht einen Cloud Native Data Engineer (m/w/d) für ein spannendes Projekt in Frankfurt. Die Position umfasst das Design und die Wartung von Datenarchitekturen und die Implementierung von Cloud-nativen Lösungen, um groß angelegte Daten effizient zu verarbeiten. In dieser Rolle arbeiten Sie eng mit verschiedenen Teams zusammen und nutzen modernste Technologien wie Kubernetes, Docker und die neuesten Datenanalyse-Tools. Wir freuen uns auf Ihre Bewerbung!

Qualifikationen

  • Mindestens 5 Jahre Erfahrung im Cloud-nativen Data Engineering.
  • Fundiertes Verständnis von Cloud-nativen Architekturen.
  • Kenntnisse in der Umstrukturierung zu Microservices.

Aufgaben

  • Konzeption von skalierbaren Datenarchitekturen für Massendaten.
  • Entwicklung von Cloud-nativen Anwendungen mit Fokus auf Skalierbarkeit.
  • Integration und Verwaltung von Datenflüssen für Qualität und Konsistenz.

Kenntnisse

Cloud-natives Prinzipien
Datenarchitektur
Microservices
Kubernetes
Agile Methoden

Tools

Java
Scala
Docker
Helm
Airflow
Kafka
PostgreSQL

Jobbeschreibung

Westhouse ist eines der führenden internationalen Recruitment Unternehmen für die Vermittlung von hochqualifizierten Fachexperten in Bereichen wie IT Life Cycle, SAP, Engineering, Kaufmännischem und Fachberatung.

Für unseren Kunden suchen wir aktuell eine/n


Cloud Native Data Engineering (m/w/d) - Remote + 1 Woche pro Monat Frankfurt


Rahmeninformationen
  • Referenz: 174494
  • Start: 2025-08-01
  • Dauer: 3 Monate + Option
  • Standort: Remote + 1 Woche pro Monat Frankfurt
  • Arbeitsumfang: full-time
  • Sprachen: Deutsch + Englisch
Ihre Qualifikationen
  • ES MUSS ZU JEDEM SKILL MINDESTENS EIN PROJEKTBEISPIEL GENANNT WERDEN KÖNNEN
  • Mindestens 5 Jahre Erfahrung im Cloud-nativen Data Engineering.
  • Erfahrung in der Umstrukturierung bestehender monolithischer Architekturen hin zu Microservices-basierten, Cloud-nativen Architekturen.
  • Fundiertes Verständnis von Cloud-nativen Architekturen (lose gekoppelte Services, Container, horizontale Skalierbarkeit, Resilienz-Muster von Anwendungen).
  • Beherrschung mindestens einer Programmiersprache – Java oder Scala.
  • Kenntnisse und Erfahrung mit mindestens einigen der folgenden Daten-Technologien/-Frameworks:
  • Workflow-Orchestrierung (z.B. Airflow, Oozie)
  • Datenintegration/-aufnahme (z.B. NiFi, Flume)
  • Messaging/Data Streaming (z.B. Kafka, RabbitMQ)
  • Datenverarbeitung (z.B. Spark, Flink)
  • Relationale Datenbanken (z.B. PostgreSQL, MySQL)
  • NoSQL-Datenbanken (z.B. MongoDB, Cassandra, Neo4j)
  • Zeitreihen-Datenbanken (z.B. InfluxDB, OpenTSDB, TimescaleDB, Prometheus)
  • Und/oder deren Cloud-Äquivalente, also Cloud Data/Analytics Services (z.B. GCP, Azure, AWS)
  • Fundierte Kenntnisse im folgenden Technologie-Stack:
  • Deployment & Containerisierung: Docker, Kubernetes, Helm
  • CI/CD & DevOps-Tools: Azure DevOps, GitLab CI, GitOps, GitLab, Bash-/Shell-Scripting, Linux
  • Datenbank-Change-Management-Tools (z.B. Liquibase oder Flyway)
  • Vertrautheit mit agilen Entwicklungsmethoden und -tools (z.B. Scrum, SAFe, JIRA, Confluence)
Ihre Aufgaben
  • Konzeption des Designs, der Entwicklung und Wartung skalierbarer Datenarchitekturen, einschließlich Datenbanken, Data Lakes und Data Warehouses, die in der Lage sind, Massendaten innerhalb definierter Verarbeitungszeiten zu verarbeiten.
  • Anwendung von Best Practices bei der Implementierung von Datenspeicherung, -abfrage und -verarbeitung.
  • Förderung der Nutzung Cloud-nativer Prinzipien und Unterstützung dezentraler Datenverantwortung und -architektur.
  • Konzeption, Design und Implementierung von Proof of Concepts (POCs) zur Validierung dezentraler Datenarchitekturen.
  • Entwicklung von Cloud-nativen Anwendungen mit Fokus auf Skalierbarkeit, Zuverlässigkeit und Performance.
  • Deployment und Management von Anwendungen auf Kubernetes-Clustern unter Verwendung von Helm Charts und einem GitOps-Workflow.
  • Bereitstellung von Designkonzepten und Steuerung der Implementierung von Datenmodellen im Rahmen geschäftlicher Anforderungen.
  • Abstimmung mit Data Science und Analytics zur Erfassung und Strukturierung von Datenanforderungen.
  • Konzeption, Implementierung und Wartung von ETL-Pipelines zur Handhabung von Datenaufnahme und -transformation aus vielfältigen Quellen in die Dateninfrastruktur.
  • Integration und Verwaltung von Datenflüssen in dezentrale Datenprodukte unter Sicherstellung von Datenqualität und -konsistenz.
  • Beratung bei der Migration bestehender Anwendungen von Legacy-Infrastrukturen zu EDP Spark- und Kubernetes-basierten Umgebungen.
  • Koordination der Umsetzungsphase gemäß den EDP-Standards.
  • Bereitstellung von Dokumentationen zu POC-Ergebnissen, Architekturentscheidungen und Lessons Learned zur Wissensweitergabe und zukünftigen Referenz.
  • Abstimmung mit und Beratung der OneSet-Product Owner, Engineering und QA zur Sicherstellung von Qualität und Nachvollziehbarkeit der Entwicklungsergebnisse.
  • Abstimmung mit der EDP-Cloud-native-Architektur zur Einhaltung von Richtlinien.
Interessiert?

Wir freuen uns auf Ihre aussagekräftigen Bewerbungsunterlagen in elektronischer Form.

Ihre Ansprechpartner

Mandy Granz
P: +49-89-383772411
E: m.granz@westhouse-consulting.com
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.