Dein Profil
- Sehr gute Deutsch- und Englischkenntnisse
- Mindestens ein abgeschlossenen Bachelorstudium im Bereich Informatik oder vergleichbar
- Sehr gute Programmierkenntnisse in Python oder R
- Sicherer Umgang mit DevOps Technologien (Docker, Git, Bash, CI / CD etc.)
- Praktische Erfahrungen in der Umsetzung von Data Pipelines
- Erste Erfahrungen im Bereich Big Data Analytics (Spark etc.) und in Cloud Technologien (AWS, MS Azure, GCP)
- Hohe Datenaffinität
Deine Aufgaben
- Entwicklung und Umsetzung von ETL-Strecken und Datenintegrationsschnittstellen und deren Bereitstellung in Continuous Delivery Pipelines (CI / CD, Docker, Kubernetes etc.)
- Performante Transformation von Rohdaten in die Business Perspektive
- Bereitstellung und Analyse großer Datenmengen mit Apache Stacks wie Spark und Cloud Technologien (AWS, MS Azure, GCP)
- Technologische Weiterentwicklung des CTcon Analytics-Portfolios
- Mitarbeit an Querschnittsaufgaben
Wir wollen mehr. Auch wenn es um deine Vorteile geht.
- Mobiles Arbeiten & Homeoffice
- Weiterbildungen & Coaching
- Best-in-class-Equipment
- Firmenwagen und / oder Business Bike
- Parkplatz
- Gute Verkehrsanbindung
- Events für Mitarbeiter
- Sportangebote
- Off-site
- Mitarbeiterrabatte
- Getränke- und Snackangebot
- Regelmäßige Office Lunches