Stellenbeschreibung
Deine Aufgaben
- Design und Entwicklung: Du konzipierst, entwickelst und betreibst skalierbare Datenpipelines auf modernen Cloud-Datenplattformen wie Snowflake, Databricks, Google Cloud (BigQuery) oder Azure.
- Datenkonsolidierung: Du konsolidierst strukturierte und unstrukturierte Daten in zentrale Data Lakes und Warehouses, um sie für BI- und KI-Anwendungen nutzbar zu machen.
- Datenmodellierung: Du implementierst robuste Datenmodelle und Speicherarchitekturen (z. B. Stern-Schema, Snowflake-Schema, Medallion-Architektur).
- Data Governance & Qualität: Du stellst die Datenintegrität, -qualität, -sicherheit und Governance über den gesamten Datenlebenszyklus sicher (Data Lineage).
- Automatisierung (CI / CD): Du automatisierst Workflows und Deployments mit gängigen CI / CD-Tools (z. B. GitHub Actions, GitLab CI, Jenkins).
- Anforderungsanalyse: In enger Zusammenarbeit mit den Fachbereichen übersetzt Du deren Anforderungen in tragfähige technische Lösungen.
- Optimierung: Du optimierst die Performance und Kosteneffizienz der Dateninfrastruktur kontinuierlich.
- Strategischer Aufbau: Perspektivisch wirkst Du maßgeblich beim Aufbau und der strategischen Weiterentwicklung unseres zentralen Data & AI Bereichs mit und gestaltest dessen technologische Ausrichtung.
Beispiele Deiner zukünftigen Projekte
- Modernisierung von Legacy-ETL-Workflows mithilfe von cloud-nativen Diensten und Frameworks wie dbt.
- Aufbau von semantischen Datenmodellen für unternehmensweites Business Intelligence (Stern- / Snowflake-Schema).
- Konzeption von Ingestion-Strecken nach der Medallion-Architektur für Batch- oder Echtzeitanalysen.
- Bereitstellung von kuratierten und qualitativ hochwertigen Datenprodukten für BI- und KI-Anwendungsfälle.
Qualifikationen
Das bringst Du mit :
- Erfahrung: Mindestens 3 Jahre relevante Projekterfahrung als Data Engineer. Du kommst idealerweise aus einem Konzernumfeld oder einem Produktunternehmen und bringst eine "Inhouse"-Perspektive auf den Aufbau und Betrieb von Datenplattformen mit.
- Sprachen: Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift.
- SQL-Expertise: Exzellente Kenntnisse in SQL, inklusive Performance-Tuning.
- Datenmodellierung: Fundierte Erfahrung in der dimensionalen Datenmodellierung und mit modernen ETL / ELT-Mustern (z. B. Medallion-Architektur).
- Tech-Stack: Praktische Erfahrung mit gängigen Tools und Services für Datenintegration und -verarbeitung, wie z.B. dbt, Spark, Airflow und Cloud-Services wie AWS Glue, Google Dataflow oder Azure Data Factory.
- Bestehendes deutsches Kundennetzwerk
Pluspunkte sammelst Du mit :
- Erfahrung mit gängigen BI-Tools wie Tableau, Power BI oder Looker.
- Kenntnisse im Bereich Data Mesh oder anderer dezentraler Datenarchitekturen.
- Erfahrung mit Technologien wie Delta Lake, Apache Iceberg, Unity Catalog oder Feature Stores.
Deine Persönlichkeit
- Kommunikationsstärke: Ausgeprägte Kommunikations- und Dokumentationsfähigkeiten in Deutsch und Englisch.
- Arbeitsweise: Eine agile und ergebnisorientierte Denkweise.
- Teamplayer: Du arbeitest ebenso gerne kollaborativ im Team wie auch eigenverantwortlich.
- Analytisches Denken: Deine analytische Denkweise ist stets auf die Wertschöpfung für das Unternehmen ausgerichtet.
- Übersetzer: Du besitzt die Fähigkeit, geschäftliche Anforderungen in technische Lösungen zu übersetzen.
- Agilität: Du hast bereits Erfahrung in agilen, funktionsübergreifenden Teams gesammelt.