Wir suchen Dich ab sofort an einem unserer deutschen Standorte in München, Stuttgart, Essen, Leipzig, Berlin oder Frankfurt am Main!
Überblick
Startdatum und Standorte werden bei der Bewerbung abgestimmt. Diese Position fokussiert auf Data und AI, mit Verantwortung für die Konzeption, Entwicklung und Betrieb von Data-/AI-Plattformen sowie die Beratung von Kunden.
Verantwortlichkeiten
- Konzeptionierung und Aufbau von Big Data / Analytics / AI Plattformen, inklusive DevOps-Workflows, Infrastruktur als Code (IaC), CI/CD, IAM und Monitoring & Alerting
- Konzeption, Entwicklung und Skalierung von Daten-Pipelines auf verschiedenen Cloud-Architekturen mit Datenqualitätsmaßnahmen, Entwurf und Umsetzung von Datenmodellen
- Operationalisierung von statistischen und KI-Modellen sowie Ergebnissen der Data Scientists, um diese produktiv nutzbar zu machen bzw. zu automatisieren
- Auswahl und Beratung von Kunden zu Vor- und Nachteilen verschiedener Technologie-Stacks, passend zu Use Cases und Unternehmensumfeld
- Übernahme einer führenden Rolle in der Kundenkommunikation und Leitung von Engineering-Projekten mit fachlicher Verantwortung für ein Entwicklerteam und die Projektergebnisse
- Aufbau von Data-Engineering-Expertise im Unternehmen durch interne Schulungen, Leitung von Projekten und Teilnahme in der Engineering Community
Dein Profil / Anforderungen
- Erfolgreich abgeschlossenes Studium der Informatik, Computer Science, Data Engineering oder verwandter mathematisch/naturwissenschaftlicher Felder bzw. vergleichbare Qualifikation
- Starke Kommunikationsfähigkeiten (Deutsch und Englisch) sowie Reisebereitschaft im Rahmen einer Consulting Tätigkeit
- Mindestens 6 Jahre Vollzeit-Erfahrung als Data Engineer in der Konzeption & Implementierung von Datenplattformen und Data-Management-Prozessen
- Mindestens 5 Jahre praktische Anwendung gängiger Programmiersprachen wie Python, Scala, SQL sowie Entwickler-Tools wie Git
- Mindestens 4 Jahre Umsetzungserfahrung mit Big-Data-Technologien (z. B. Spark, Kafka), verteilten Speichersystemen, Open-Tab-Formaten und Cluster-Computing
- Mindestens 4 Jahre Erfahrung im Umgang mit Cloud-Komponenten (Object Storage, Datenbanken, Message Services, ETL/ELT-Engines, Security, Scheduling, Operations, Monitoring) in AWS / Azure / GCP
- Erfahrung mit mindestens einer der folgenden Technologien: Databricks / Snowflake / AWS SageMaker / Azure Synapse oder ähnliche Data-Analytics-Plattformen
- Erfahrung mit IaC-Tools (z. B. Terraform, AWS CDK) sowie gängigen CI/CD-Prozessen und Tools
- Nice to have: Erfahrung mit UNIX-Systemen und Netzwerkkonfiguration
Wir bieten
- Data bewegt uns! Was Dich auf Deiner persönlichen Journey erwartet, findest Du hier
- Work-Life-Balance – Vertrauensarbeitszeit mit flexibler Arbeitszeitgestaltung, remote-Arbeit oder modern eingerichtete Innenstadtbüros (inkl. Dachterrasse)
- Kultur & Zusammenarbeit – offene Teamkultur, flache Hierarchien, regelmäßige Events, Data.Castle-Workshops, Buddy-Programm und Networking
- Fachliche & persönliche Entwicklung – onboarding, individueller Entwicklungsplan, Data.Academy, interne/externe Weiterbildung
- Vergütung & Zusatzleistungen – Kita-Zuschuss, betriebliche Altersvorsorge, Corporate Benefits, Startguthaben im Merchandise-Shop, wettbewerbsfähiges Gehalt
- Gesundheit & Wohlbefinden – Mental Health & Wellbeing-Support, Fitness- und Yoga-Räume, EGYM Well Pass, Fahrradleasing, Heiß-/Erfrischungsgetränke
- Mobilität – zentrale Lage, gute ÖV-Anbindung, Arbeiten an anderen Standorten möglich
Ansprechpartnerin: Marina Sommer, Principal Recruiting Managerin