Aktiviere Job-Benachrichtigungen per E-Mail!

Data Platform Engineer (m / w / d) - Remote

COPiTOS GmbH part of evoila

Lübeck

Remote

EUR 60.000 - 90.000

Vollzeit

Vor 30+ Tagen

Erhöhe deine Chancen auf ein Interview

Erstelle einen auf die Position zugeschnittenen Lebenslauf, um deine Erfolgsquote zu erhöhen.

Zusammenfassung

Ein führendes Unternehmen im Bereich Data Engineering sucht einen Data Platform Engineer zur Unterstützung der evoila GmbH. In dieser Rolle sind Sie verantwortlich für die Bereitstellung und den Betrieb von hochskalierbaren Data Lakehouse-Systemen, die Weiterentwicklung der Architektur sowie die Automatisierung von Prozessen. Sie bringen umfangreiche Erfahrungen in Kubernetes, CI/CD und Python mit und haben die Möglichkeit, remote zu arbeiten sowie von attraktiven Zusatzleistungen zu profitieren.

Leistungen

Remote Work (nach Absprache)
Altersvorsorge
Corporate Benefits
Teamevents
eGYM und weitere attraktive Benefits

Qualifikationen

  • Umfangreiche Erfahrung im Data Platform Engineering oder Plattform Engineering.
  • Fundierte Kenntnisse in Kubernetes und CI/CD.
  • Verhandlungssichere Deutsch- und fließende Englischkenntnisse.

Aufgaben

  • Bereitstellung und Betrieb hochskalierbarer Data Lakehouse-Systeme.
  • Weiterentwicklung der on-premises Lakehouse-Architektur.
  • Automatisierung und Effizienzsteigerung in Kundenprojekten.

Kenntnisse

Data Platform Engineering
Deployment von Data Analytics Plattformen
Kubernetes
CI / CD-Technologien
Python
Infrastructure as Code (IaC)
Eigenverantwortliches Arbeiten
Deutsch (verhandlungssicher)
Englisch (fließend)

Jobbeschreibung

Einleitung Wir, COPiTOS GmbH, Teil von evoila, suchen zur Unterstützung der evoila GmbH innerhalb unseres gemeinsamen Unternehmensnetzwerks einen Data Platform Engineer (m / w / d).

Aufgaben
  1. Bereitstellung und Betrieb hochskalierbarer Data Lakehouse-Systeme im Petabyte-Bereich.
  2. Weiterentwicklung unserer on-premises Lakehouse-Architektur unter Einsatz modernster IaC- und CI / CD-Technologien.
  3. Automatisierung, Innovation und Effizienzsteigerung in unseren Kundenprojekten.
Qualifikation
  • Umfangreiche Erfahrung im Data Platform Engineering oder Plattform Engineering.
  • Erfahrung im Deployment und Betrieb von Data Analytics Plattformen.
  • Fundierte Kenntnisse in Kubernetes.
  • Erfahrung mit CI / CD-Technologien.
  • Kenntnisse in Python.
  • Expertise in Infrastructure as Code (IaC).
  • Eigenverantwortliches und selbstständiges Arbeiten.
  • Verhandlungssichere Deutsch- und fließende Englischkenntnisse.

Optimal wäre zudem, wenn du Erfahrung im Deployment und Betrieb von Technologien wie Spark, S3-kompatiblem Object Storage, relationale Datenbanken, Apache Nifi, Apache Spark, Apache Airflow, Kafka, Trino / Presto / Starburst und Hive mitbringst, sowie ein tiefes Verständnis von relevanten Security-Praktiken hast und Reisebereitschaft mitbringst.

Benefits
  • Remote Work (nach Absprache)
  • Altersvorsorge
  • Corporate Benefits
  • Teamevents
  • eGYM und weitere attraktive Benefits

Noch ein paar Worte zum Schluss: Wir freuen uns auf deine Bewerbung.

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.