Job Search and Career Advice Platform

Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer

Codex

Köln

Vor Ort

EUR 55.000 - 75.000

Vollzeit

Vor 30+ Tagen

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Zusammenfassung

Ein innovatives Unternehmen in Köln sucht einen Data Engineer (m/w/d), der Erfahrung mit Microsoft Azure und Databricks hat. Sie werden BI und Datenarchitekturen entwerfen, Datenumgebungen aufbauen und ETL-Pipelines entwickeln. Ideale Kandidaten sind neugierig, teamorientiert und lösungsorientiert, mit einer Leidenschaft für datengetriebene Lösungen. Diese Rolle bietet eine spannende Gelegenheit, sich in einer modernen Cloud-Umgebung zu engagieren.

Qualifikationen

  • Nachweisliche Erfahrung mit Microsoft Power BI, Azure und Databricks.
  • Fundierte Kenntnisse in Microsoft Fabric, insbesondere Lakehouse-Architektur.
  • Praktische Erfahrung mit Spark / PySpark, Dataflows und Notebooks.

Aufgaben

  • Entwerfen und Implementieren von BI und Datenarchitekturen mit Microsoft Fabric und Azure.
  • Aufbauen und Optimieren von Datenumgebungen in OneLake.
  • Entwickeln von ETL / ELT-Datenpipelines mit Azure Databricks und Spark.

Kenntnisse

Erfahrung mit Microsoft Power BI
Kenntnisse in Azure
Databricks-Kenntnisse
Erfahrung mit Spark / PySpark
Verständnis moderner Datenarchitekturen
Teamfähigkeit

Tools

Microsoft Fabric
OneLake
Jobbeschreibung

Ich unterstütze aktuell ein spannendes Unternehmen beim Ausbau seines Data Engineering Teams mit Fokus auf Microsoft Azure und Databricks. Wenn du gerne in einer modernen Cloud-Umgebung arbeitest und datengetriebene Lösungen vorantreibst, ist das eine großartige Gelegenheit, dich in einem innovativen Umfeld einzubringen.

Deine Aufgaben
  • Entwerfen und Implementieren von BI und Datenarchitekturen mit Microsoft Fabric und Azure
  • Aufbauen, Pflegen und Optimieren von Datenumgebungen in OneLake (Warehouse, Lakehouse)
  • Entwickeln, Orchestrieren und Optimieren von ETL / ELT-Datenpipelines mit Azure Databricks, Spark und PySpark
  • Einlesen, Transformieren und Modellieren von strukturierten und unstrukturierten Daten aus verschiedenen Quellen, einschließlich ERP, CRM, APIs und externen Datensätzen
Dein Profil
  • Nachweisliche Erfahrung mit Microsoft Power BI, Azure und Databricks
  • Fundierte Kenntnisse in Microsoft Fabric, insbesondere Lakehouse-Architektur und OneLake
  • Praktische Erfahrung mit Spark / PySpark, Dataflows, Notebooks und Direct Lake
  • Verständnis moderner Datenarchitekturen, ETL / ELT-Pipelines und Data Governance
  • Ausgeprägtes analytisches Denken, Kommunikationsstärke und Teamfähigkeit
Über dich
  • Neugierig und lernbereit, besonders in der sich schnell entwickelnden Welt von Data Analytics und KI
  • Eigenständig und proaktiv, übernimmst Verantwortung, bist aber gleichzeitig ein starker Teamplayer
  • Kundenorientiert mit der Fähigkeit, technische Konzepte verständlich zu erklären
  • Lösungsorientiert, empathisch und begeisterungsfähig – in der Lage, andere mit Ideen zu inspirieren
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.