Aktiviere Job-Benachrichtigungen per E-Mail!

Senior Data Engineer Advanced Analytics (m/w/d)

Aldi

Deutschland

Hybrid

EUR 75.000 - 95.000

Vollzeit

Vor 3 Tagen
Sei unter den ersten Bewerbenden

Zusammenfassung

Ein führendes Einzelhandelsunternehmen in Deutschland sucht einen erfahrenen Senior Data Engineer für die Entwicklung innovativer Datenlösungen. Diese Rolle erfordert umfangreiche Kenntnisse im Datenengineering und in Technologien wie Azure Databricks und Python. Der ideale Kandidat hat mindestens zehn Jahre Erfahrung und starke Kommunikationsfähigkeiten. Es wird eine attraktive Vergütung angeboten, sowie die Möglichkeit, mobil zu arbeiten.

Leistungen

Attraktive Vergütung
Zukunftsorientierte Schulungen
Gesundheitsangebote

Qualifikationen

  • Mindestens zehn Jahre Berufserfahrung in der Software- oder Infrastrukturentwicklung.
  • Mindestens vier Jahre Data Engineering Erfahrung.
  • Kenntnisse in Distributed Computing und den zugrundeliegenden Konzepten.

Aufgaben

  • Entwurf und Entwicklung einer Squad-spezifischen Datenarchitektur.
  • Lösung technischer Datenprobleme für die Business-Kolleg:innen.
  • Erstellung von Datenprodukten für Analytics und Data Scientists.

Kenntnisse

SQL
Datenanalyse
Python
Data Engineering
Datenbankentwicklung
Kommunikationsstärke
Fließende Englischkenntnisse

Ausbildung

Hintergrund im Bereich Informatik

Tools

Azure Data Factory
Azure Databricks
Databricks/Spark
SQL Server DB
Jobbeschreibung
Overview

Senior Data Engineer Advanced Analytics (m/w/d) – Vollzeit oder Teilzeit, unbefristet. Mobiles Arbeiten an bis zu drei Tagen in der Woche innerhalb Deutschlands. Standort: Mülheim an der Ruhr / Nordrhein-Westfalen, Deutschland.

Unternehmenshintergrund

Bei ALDI DX entwickeln wir innovative digitale Produkte und Dienstleistungen für unsere Mitarbeiter:innen und Kund:innen in elf ALDI SÜD Ländern und über 7.300 ALDI SÜD Filialen weltweit. Wir schaffen digitalen Mehrwert, um hervorragende Qualität zum niedrigsten Preis zu bieten. Die Kernwerte sind Einfachheit, Verlässlichkeit und Verantwortung.

Deine Aufgaben
  • Entwurf, Entwicklung, Optimierung und Pflege einer squad-spezifischen Datenarchitektur und von Pipelines entsprechend definierten ETL- und Data-Lake-Prinzipien
  • Vorbereitung, Abstimmung und Organisation der Übergabe von Datenarchitektur- und Pipeline-Artefakten an das Plattform-Team zur squad-übergreifenden Verwendung
  • Lösung technischer Datenprobleme, deren Behebung unseren Business-Kolleg:innen bei der Zielerreichung hilft
  • Erstellung von Datenprodukten für Analytics und Data Scientists/Machine Learning Engineers, um deren Produktivität innerhalb ihrer Teams sowie des gesamten Unternehmens zu verbessern
  • Beratung, Mentoring und Coaching von Expert:innen im Bereich Data & Analytics in deiner eigenen Squad in Bezug auf Datenstandards und -verfahren
  • Mitwirkung an der Bewertung neuer Tools im Bereich analytisches Data Engineering bzw. für die Datenwissenschaft sowie Beitrag zur Festlegung neuer Standards für entsprechende Arbeitsweisen
  • Vorschläge und Beiträge zu Schulungs- und Verbesserungsplänen hinsichtlich Fähigkeiten, Standards und Prozessen im Bereich analytisches Data Engineering
Dein Profil
  • Hintergrund im Bereich Informatik
  • Mindestens zehn Jahre Berufserfahrung in der Software- oder Infrastrukturentwicklung, davon mindestens vier Jahre im Bereich Data Engineering mit Lösungen in Bezug auf Distributed Computing, Big Data und Advanced Analytics
  • Kenntnisse in SQL und Datenanalyse sowie Erfahrung mit mindestens einer Programmiersprache (z. B. Python, Scala)
  • Erfahrung in der Datenbankentwicklung und Datenmodellierung, idealerweise unter Verwendung von Databricks/Spark und SQL Server DB, sowie Kenntnisse über relationale, NoSQL- und Cloud-Datenbanktechnologien
  • Kenntnisse in Distributed Computing und der zugrundeliegenden Konzepte, vorzugsweise Spark und MapReduce
  • Vertrautheit mit MS-Azure-Tools, wie Azure Data Factory, Azure Databricks, Azure Event Hub, Synapse, ML
  • Konzeptionelle Kenntnisse über Daten und Analysen, z. B. Dimensionsmodellierung, ETL, Berichterstattungstools, Data Governance, Data Warehousing, strukturierte und unstrukturierte Daten
  • Erfahrung mit Unix-Betriebssystemen, insbesondere mit Shell-Skripten
  • Gutes Verständnis von Problemen auf Netzwerkebene sowie Konnektivitätsanforderungen; Fähigkeit, Probleme zu beheben
  • Grundkenntnisse im Bereich maschinelles Lernen, Datenwissenschaft, Computer Vision, künstliche Intelligenz, Statistik bzw. angewandte Mathematik
  • Kommunikationsstärke sowie fließende Englischkenntnisse; Deutschkenntnisse sind von Vorteil
Deine Benefits
  • Anteilig mobiles Arbeiten innerhalb Deutschlands
  • State-of-the-art-Technologien
  • Attraktive Vergütung sowie Urlaubs- und Weihnachtsgeld
  • Zukunftsorientierte Schulungen und Weiterbildung
  • Modulares Onboarding und Buddy
  • Gesundheitsangebote
Dein Tech Stack
  • Azure Databricks
  • Python
  • PySpark
  • Viele weitere jobabhängig

Reisen: Mobiles Arbeiten an bis zu drei Tagen in der Woche

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.