Düsseldorf, Berlin
Vor Ort
EUR 50.000 - 80.000
Vollzeit
Vor 30+ Tagen
Erhöhe deine Chancen auf ein Interview
Erstelle einen auf die Position zugeschnittenen Lebenslauf, um deine Erfolgsquote zu erhöhen.
Zusammenfassung
Ein innovatives Unternehmen sucht einen Datenarchitekten, der die Entwicklung und Optimierung von Datenhaltungsarchitekturen vorantreibt. In dieser spannenden Rolle entwerfen Sie skalierbare Datenarchitekturen und optimieren ETL-Prozesse, um große Datenmengen effizient zu integrieren. Ihre Expertise in Python und SQL wird entscheidend sein, um Datenflüsse zu automatisieren und die Performance der Datenpipelines zu überwachen. Sie arbeiten eng mit Data-Science-, Marketing- und IT-Teams zusammen, um datenbasierte Lösungen zu entwickeln, die Geschäftsentscheidungen unterstützen. Diese Position bietet Ihnen die Möglichkeit, in einem dynamischen Umfeld zu wachsen und Ihre Fähigkeiten weiterzuentwickeln.
Leistungen
Mobiles Arbeiten
Strukturiertes Onboarding
Steile Lernkurve
Attraktive Büroräume
Leistungsorientierte Vergütung
Qualifikationen
- Abgeschlossenes Studium in Informatik oder verwandten Fachrichtungen.
- Mehrjährige Erfahrung in der Datenarchitektur und -optimierung.
Aufgaben
- Entwurf und Weiterentwicklung der Datenarchitektur für Skalierbarkeit und Performance.
- Entwicklung und Optimierung von ETL-Prozessen zur Datenintegration.
Kenntnisse
Datenanalyse
Analytische Denkweise
Python
SQL
Datenmodellierung
CI/CD
Git
Docker
Ausbildung
Studium in Informatik
Wirtschaftsinformatik
Mathematik
Tools
Über Uns
Dein Profil
- Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Mathematik oder einer vergleichbaren Fachrichtung.
- Berufserfahrung: Mehrjährige Erfahrung in der Entwicklung und Optimierung von Datenhaltungs-/Datenbereitstellungsarchitekturen.
- Tool-Kompetenz: Fortgeschrittene Kenntnisse in Apteco, Python und SQL. Erfahrungen mit weiteren Tools und Frameworks im Bereich Datenanalyse und Automatisierung sind ein Plus.
- Datenverständnis: Starkes Verständnis von Datenmodellen, relationalen Datenbanken und der Verarbeitung großer Datenmengen.
- Analytische Denkweise: Fähigkeit, komplexe Datenprobleme zu lösen und effiziente Prozesse zu entwerfen.
- DevOps-Skills: Kenntnisse in CI/CD-Tools, Versionskontrolle (z. B. Git) und Containerisierung (z. B. Docker) sind von Vorteil.
Deine Aufgaben
- Architektur & Design: Entwurf und Weiterentwicklung unserer datenbezogenen Architektur mit Blick auf Skalierbarkeit und Performance.
- Tool-Expertise: Spezialisierte Arbeit mit Apteco, um Marketingdaten zu analysieren und Datenströme für Kampagnenlösungen zu optimieren.
- Datenintegration: Entwicklung und Optimierung von ETL-Prozessen zur Integration großer Datenmengen aus verschiedenen Quellen.
- Automatisierung: Einsatz von Python und anderen Skriptsprachen zur Automatisierung von Datenflüssen, Monitoring und Optimierung von Pipelines.
- SQL-Datenbanken: Erstellung komplexer Abfragen, Optimierung der Performance und Sicherstellung der Datenqualität in relationalen Datenbanksystemen.
- DevOps-Ansatz: Einführung von CI/CD-Prozessen für das Datenmanagement, einschließlich Testing und Deployment.
- Zusammenarbeit: Enge Zusammenarbeit mit Data-Science-, Marketing- und IT-Teams, um Datenlösungen bereitzustellen, die Geschäftsentscheidungen unterstützen.
- Monitoring & Troubleshooting: Überwachung der Datenpipeline-Performance und proaktive Lösung technischer Herausforderungen.
Dein Extra
- Teamspirit und herausfordernde Aufgaben.
- Ein strukturiertes Onboarding.
- Eine steile Lernkurve unterstützt durch Deinen Paten.
- Mobiles Arbeiten.
- Eine attraktive und leistungsorientierte Vergütung.
- Attraktive Büroräume im Zentrum von Düsseldorf.