Aktiviere Job-Benachrichtigungen per E-Mail!

Lead Data Business Developer (m / w / d)

Devoteam Innovative Tech Germany

Frankfurt

Vor Ort

EUR 60.000 - 80.000

Vollzeit

Heute
Sei unter den ersten Bewerbenden

Zusammenfassung

Ein führendes Technologieunternehmen in Frankfurt sucht einen Data Engineer, der skalierbare Datenpipelines auf modernen Cloud-Datenplattformen entwickelt. Sie werden für die Konsolidierung und Modellierung von Daten verantwortlich sein sowie die Datenintegrität und -qualität sicherstellen. Gute Kenntnisse in SQL und Erfahrung mit Cloud-Services sind erforderlich. Das Unternehmen bevorzugt einen Teamplayer mit agiler Denkweise.

Qualifikationen

  • Mindestens 3 Jahre relevante Projekterfahrung als Data Engineer.
  • Exzellente Kenntnisse in SQL, inklusive Performance-Tuning.
  • Fundierte Erfahrung in der dimensionalen Datenmodellierung.

Aufgaben

  • Design und Entwicklung von skalierbaren Datenpipelines auf Cloud-Plattformen.
  • Konsolidierung von strukturierten und unstrukturierten Daten.
  • Implementierung robuster Datenmodelle und Speicherarchitekturen.

Kenntnisse

SQL-Expertise
Datenmodellierung
Gute Deutschkenntnisse
Gute Englischkenntnisse
Cloud-Services Erfahrung

Tools

dbt
Spark
Airflow
AWS Glue
Google Dataflow
Azure Data Factory
Jobbeschreibung
Stellenbeschreibung

Deine Aufgaben

  • Design und Entwicklung: Du konzipierst, entwickelst und betreibst skalierbare Datenpipelines auf modernen Cloud-Datenplattformen wie Snowflake, Databricks, Google Cloud (BigQuery) oder Azure.
  • Datenkonsolidierung: Du konsolidierst strukturierte und unstrukturierte Daten in zentrale Data Lakes und Warehouses, um sie für BI- und KI-Anwendungen nutzbar zu machen.
  • Datenmodellierung: Du implementierst robuste Datenmodelle und Speicherarchitekturen (z. B. Stern-Schema, Snowflake-Schema, Medallion-Architektur).
  • Data Governance & Qualität: Du stellst die Datenintegrität, -qualität, -sicherheit und Governance über den gesamten Datenlebenszyklus sicher (Data Lineage).
  • Automatisierung (CI / CD): Du automatisierst Workflows und Deployments mit gängigen CI / CD-Tools (z. B. GitHub Actions, GitLab CI, Jenkins).
  • Anforderungsanalyse: In enger Zusammenarbeit mit den Fachbereichen übersetzt Du deren Anforderungen in tragfähige technische Lösungen.
  • Optimierung: Du optimierst die Performance und Kosteneffizienz der Dateninfrastruktur kontinuierlich.
  • Strategischer Aufbau: Perspektivisch wirkst Du maßgeblich beim Aufbau und der strategischen Weiterentwicklung unseres zentralen Data & AI Bereichs mit und gestaltest dessen technologische Ausrichtung.
Beispiele Deiner zukünftigen Projekte
  • Modernisierung von Legacy-ETL-Workflows mithilfe von cloud-nativen Diensten und Frameworks wie dbt.
  • Aufbau von semantischen Datenmodellen für unternehmensweites Business Intelligence (Stern- / Snowflake-Schema).
  • Konzeption von Ingestion-Strecken nach der Medallion-Architektur für Batch- oder Echtzeitanalysen.
  • Bereitstellung von kuratierten und qualitativ hochwertigen Datenprodukten für BI- und KI-Anwendungsfälle.
Qualifikationen

Das bringst Du mit :

  • Erfahrung: Mindestens 3 Jahre relevante Projekterfahrung als Data Engineer. Du kommst idealerweise aus einem Konzernumfeld oder einem Produktunternehmen und bringst eine "Inhouse"-Perspektive auf den Aufbau und Betrieb von Datenplattformen mit.
  • Sprachen: Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift.
  • SQL-Expertise: Exzellente Kenntnisse in SQL, inklusive Performance-Tuning.
  • Datenmodellierung: Fundierte Erfahrung in der dimensionalen Datenmodellierung und mit modernen ETL / ELT-Mustern (z. B. Medallion-Architektur).
  • Tech-Stack: Praktische Erfahrung mit gängigen Tools und Services für Datenintegration und -verarbeitung, wie z.B. dbt, Spark, Airflow und Cloud-Services wie AWS Glue, Google Dataflow oder Azure Data Factory.
  • Bestehendes deutsches Kundennetzwerk
Pluspunkte sammelst Du mit :
  • Erfahrung mit gängigen BI-Tools wie Tableau, Power BI oder Looker.
  • Kenntnisse im Bereich Data Mesh oder anderer dezentraler Datenarchitekturen.
  • Erfahrung mit Technologien wie Delta Lake, Apache Iceberg, Unity Catalog oder Feature Stores.
Deine Persönlichkeit
  • Kommunikationsstärke: Ausgeprägte Kommunikations- und Dokumentationsfähigkeiten in Deutsch und Englisch.
  • Arbeitsweise: Eine agile und ergebnisorientierte Denkweise.
  • Teamplayer: Du arbeitest ebenso gerne kollaborativ im Team wie auch eigenverantwortlich.
  • Analytisches Denken: Deine analytische Denkweise ist stets auf die Wertschöpfung für das Unternehmen ausgerichtet.
  • Übersetzer: Du besitzt die Fähigkeit, geschäftliche Anforderungen in technische Lösungen zu übersetzen.
  • Agilität: Du hast bereits Erfahrung in agilen, funktionsübergreifenden Teams gesammelt.
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.