Westhouse ist eines der führenden internationalen Recruitment-Unternehmen für die Vermittlung von hochqualifizierten Fachexperten in Bereichen wie IT Life Cycle, SAP, Engineering, Kaufmännischem und Fachberatung.
Für unseren Kunden suchen wir aktuell eine/n Cloud Native Data Architect (Senior) (m/w/d) - Berlin, Remote.
Ihre Aufgaben
- Leiten Sie Teams, die datenintensive Anwendungen erstellen, unter Verwendung bewährter Verfahren für die Datenarchitektur in einer Cloud-nativen Umgebung. Wichtige Fragen sind:
- Wie dezentralisiert und modelliert man Daten innerhalb einer Microservices-Architektur aus Geschäftsbereichsperspektive? (z.B.: Datenbank pro Dienst, transiente und persistente Daten in begrenzten Kontexten)
- Wie wählt man geeignete Datenspeicherlösungen basierend auf Geschäftsanforderungen? (z.B.: Relationale Datenbanken, NoSQL, Zeitreihen-Datenbanken, Delta Lake, Caches)
- Wie können Daten effektiv zwischen Anwendungsdiensten in großem Umfang ausgetauscht werden? (z.B.: Nachrichtenaustausch mit Kafka)
- Verstehen und Anwenden von Prinzipien wie Data Mesh, Datenprodukten, Datenqualität und Daten-SLOs.
- Demonstrieren Sie diese Konzepte anhand funktionierenden Codes unter Verwendung einer Referenzbasis.
- Kooperieren Sie mit dem EDP Data Team, um sicherzustellen, dass die angebotenen Dienste die Referenzarchitektur-Dokumentation und Codebasis widerspiegeln.
- Liefern Sie umsetzbare Kundenanforderungen an das EDP Data Team.
- Empfehlen Sie Strategien, um Datenverluste in hybriden Umgebungen mit mehreren Datenzentren zu vermeiden.
Interessiert?
- Mindestens 5 Jahre Erfahrung als Cloud Native Data Architect, mit Nachweis, dass architektonische Daten-Workloads in großem Umfang einsatzfähig sind.
- Tiefgehendes Verständnis von Datenarchitekturen (inkl. Datenqualität und Daten-SLOs) im Kontext von Cloud-nativen und verteilten Umgebungen sowie die Fähigkeit, Datenkonzepte für unterschiedliche Zielgruppen zu vermitteln.
- Nachweisliche Erfahrung in der Unterstützung von Entwicklungsteams bei der Navigation durch das CAP-Theorem und bei der Auswahl von Datenspeichertechnologien.
- Praktische Erfahrung mit folgenden Themen:
- - Datentechnologien:
- o Zeitreihen-Datenbanken (z.B. TimescaleDB, InfluxDB)
- o Messaging/Daten-Streaming-Systeme (Apache Kafka)
- o Datenverarbeitung und Workflows (z.B. Spark, Dagster, Apache Airflow)
- - Nutzung des Kubernetes-Ökosystems zur Erstellung, Bereitstellung und Fehlerbehebung von Container-Workloads.
- - CI/CD-Pipelines und zugehörige Werkzeuge zur Automatisierung von Codeerstellung, Tests und Deployment.
- - Entwicklung in mindestens einer Programmiersprache (z.B. Java, Python, Golang).
- - Kenntnisse in Datensicherheit und Best Practices bei der Arbeit mit Daten (Verschlüsselung, Zugriffskontrolle, Datenklassifizierung, Konformität).
- - Erfahrung in der Bewertung des Reifegrads für die Nutzung von Cloud-Native-Data-Technologien, sowohl auf IT- als auch auf Geschäftsebene.
- - Fließendes Englisch in Wort und Schrift (mindestens B2).
- - Relevante Zertifizierungen in Cloud- und Cloud-Native-Technologien.
- - Verständnis der Prinzipien von Data Mesh und Datenprodukten.