Job Search and Career Advice Platform

Aktiviere Job-Benachrichtigungen per E-Mail!

Databricks Cloud Developer

Synergie-Effekt GmbH

Köln

Hybrid

EUR 60.000 - 80.000

Vollzeit

Gestern
Sei unter den ersten Bewerbenden

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Zusammenfassung

Ein führendes Technologieunternehmen in Deutschland sucht einen Databricks Cloud Developer, der für die erfolgreiche Umsetzung von Lakehouse-Projekten in der Azure-Cloud verantwortlich ist. Die Position erfordert Expertise in Databricks, Erfahrung mit Cloud-Umgebungen und das Erstellen skalierbarer Datenlösungen. Gute Deutschkenntnisse sind erforderlich, um effektiv mit Kunden und internen Teams zu kommunizieren. Diese Rolle erfordert auch Kenntnisse in CI/CD und agilen Methoden, insbesondere SCRUM.

Qualifikationen

  • Erfahrung in der Umsetzung von Lakehouse-Architekturen und Bereitstellung von Databricks Workspaces.
  • Fähigkeit zur Erstellung generischer, skalierbarer Lösungen.
  • Erfahrung im Betrieb und Monitoring von Cloud-Umgebungen (Azure).
  • Sicherer Umgang mit Infrastructure-as-Code zur Automatisierung von Deployments.
  • Fähigkeit, wiederverwendbare und skalierbare Lösungen zu entwickeln.
  • Aufbau und Pflege von Continuous Integration und Continuous Deployment Pipelines.
  • Sicherer Umgang mit Python, PySpark und SQL.
  • Fokus auf kundenorientierte Projektdurchführung und Beratung.
  • Erfahrung in der Arbeit nach SCRUM.
  • Sehr gute Deutschkenntnisse für Kommunikation und Dokumentation.

Kenntnisse

Databricks Expertise
Framework-Entwicklung
Betrieb (Cloud)
Azure Infrastruktur & IaC
Generisch getriebene Ansätze
CI/CD Know-how
Programmier- und Datenkompetenz
Kundenzentrierung
Agile Methoden
Deutschkenntnisse
Jobbeschreibung

Titel / Position: Databricks Cloud Developer

Beschreibung: Als Databricks Cloud Developer bist du verantwortlich für die erfolgreiche Umsetzung von Lakehouse-Projekten in der Azure-Cloud. Du entwickelst und betreibst skalierbare Datenlösungen auf Basis von Databricks und bringst innovative Ansätze in die Projektarbeit ein. Dabei arbeitest du eng mit Kunden und internen Teams zusammen, um datengetriebene Lösungen effizient und kundenzentriert bereitzustellen.

Profilanforderungen
  • Databricks Expertise: Erfahrung in der Umsetzung von Lakehouse-Architekturen und Bereitstellung von Databricks Workspaces.
  • Framework-Entwicklung: Fähigkeit zur Erstellung generischer, skalierbarer Lösungen.
  • Betrieb (Cloud): Erfahrung im Betrieb und Monitoring von Cloud-Umgebungen (Azure).
  • Azure Infrastruktur & IaC: Sicherer Umgang mit Infrastructure-as-Code zur Automatisierung von Deployments.
  • Generisch getriebene Ansätze: Fähigkeit, wiederverwendbare und skalierbare Lösungen zu entwickeln.
  • CI/CD Know-how: Aufbau und Pflege von Continuous Integration und Continuous Deployment Pipelines.
  • Programmier- und Datenkompetenz: Sicherer Umgang mit Python, PySpark und SQL.
  • Vermittlung von Wissen und Förderung innovativer Herangehensweisen im Team.
  • Kundenzentrierung: Fokus auf kundenorientierte Projektdurchführung und Beratung.
  • Agile Methoden: Erfahrung in der Arbeit nach SCRUM.
  • Sprachkenntnisse: Sehr gute Deutschkenntnisse für Kommunikation und Dokumentation
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.