- Umsetzung von technischen Jobs zur Automatisierung von Datenabfragen
- Analyse der Infrastruktur, Data-Pipelines und damit einhergehend die Kostenoptimierung im Data Warehouse
- Konzeption / Erstellung eines Handlungsleitfaden (Infrastruktur / Data-Sets, Views, Queries), wie eine effiziente Datenablage und -strukturierung möglich ist, um eine hohe Datenqualität sicherzustellen
- Implementierung der neuen Konzeption bis zur Produktivsetzung
Anforderungen:
- Fundierte Erfahrung im Bereich Data Engineering/Data Science
- Projekterfahrung aus anderen Konzernen im Bereich der digitalen Transformation
- Fundierte Kenntnisse mit SQL (Databricks)
- Fundierte Kenntnisse mit Databricks
- Azure Erfahrung,
- Sprachkenntnisse: Englisch (C1+), Deutsch (B1 +)
- Perfekte Kenntnisse in ETL, SQL, Python und Spark (Pyspark)
- Bachelor in einem quantitativen Bereich oder gleichwertige Erfahrung
- 3-10 Jahre Erfahrung im Bereich Data Engineering/Data Science/Data Analytics
- Erfahrung mit Big Data-Frameworks wie Hadoop, Spark
- Fundierte Kenntnisse in einem der Orchestrierungstools: Apache Airflow/Dagster/Prefect/Matillion/Informatica/Data Factory/etc.
Dies ist eine Remote-Stelle. Sowohl eine Festanstellung als auch eine freiberufliche Tätigkeit sind möglich.