Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer Big Data (all genders)

solute

Karlsruhe

Vor Ort

EUR 50.000 - 75.000

Vollzeit

Vor 20 Tagen

Erhöhe deine Chancen auf ein Interview

Erstelle einen auf die Position zugeschnittenen Lebenslauf, um deine Erfolgsquote zu erhöhen.

Zusammenfassung

Ein führendes Unternehmen in der Dateninfrastruktur sucht einen Experten, der für die Entwicklung und Optimierung von Datenpipelines verantwortlich ist. Die Rolle erfordert umfangreiche Kenntnisse in der Datenmodellierung und -analyse sowie Erfahrung mit großen Datenmengen. Flexible Arbeitszeiten und zahlreiche Weiterbildungsmöglichkeiten bieten eine attraktive Work-Life-Balance in einem agilen Teamumfeld.

Leistungen

Flexible Arbeitszeiten
Mobiles Arbeiten
30 Tage Urlaub
Weiterbildungsmöglichkeiten
Gemeinsame Events
Fitness-Studio

Qualifikationen

  • Praktische Erfahrung in der Implementierung von Dateninfrastrukturen und -pipelines.
  • Erfahrung im Umgang mit großen Datenmengen und in der Implementierung von ETL-Prozessen.
  • Data-Scientist-Kenntnisse für die bestmögliche Analyse.

Aufgaben

  • Entwicklung und Optimierung der Dateninfrastruktur.
  • Definition und Implementierung von Datenpipelines.
  • Automatisches Testing zur Sicherstellung der Prozessqualität.

Kenntnisse

Python
Datenmodellierung
Datenanalyse
Datenschutz und -sicherheit
Agiles Arbeiten
Kommunikationsfähigkeit
Analytisches Denkvermögen
Teamfähigkeit
Englisch (mind. B2)
Deutsch (mind. B2)

Tools

Google Cloud
Databricks
Google Looker

Jobbeschreibung

  • Du sorgst für die Bereitstellung reibungsloser Datenprozesse (Entwicklung und Optimierung der Dateninfrastruktur)
  • Du bist für die Definition und Implementierung von Datenpipelines zuständig
  • Du schaffst die optimalen Rahmenbedingungen für die Suche und das Abrufen der Daten (Modellierung skalierbarer Datenbanken, um die Daten zu strukturieren)
  • Du entwickelst / nutzt geeignete Frameworks zur Speicherung und Verwaltung der Flut an Daten, die den Verfügbarkeits-, Integritäts- und Sicherheitsanspruch erfüllen
  • Du nutzt automatisches Testing, um eine hohe Qualität der erstellten Prozesse und der verarbeiteten Daten sicherzustellen

Das bringst Du mit

  • Praktische Erfahrung in der Implementierung von Dateninfrastrukturen und -pipelines
  • Erfahrung im Umgang mit großen Datenmengen und in der Implementierung von ETL-Prozessen
  • Erfahrung im sicheren Umgang mit Google Cloud, Databricks und Google Looker erwünscht
  • Sehr gute Kenntnisse in der Modellierung und der Abfrage von relationalen Daten im Big Data Kontext
  • Kenntnisse im Bereich Datenschutz und -sicherheit
  • Einschlägige praktische Programmierkenntnisse (Python)
  • Du verfügst über Data-Scientist-Kenntnisse, um die Anforderungen zur bestmöglichen Analyse zu berücksichtigen
  • Du hast Erfahrung mit agilen Arbeitsmethoden
  • Ein sehr gutes analytisches Denkvermögen sowie eine selbstständige, strukturierte und lösungsorientierte Arbeitsweise
  • Eine ausgeprägte Kommunikations- und Teamfähigkeit
  • Gute Deutsch- und Englisch-Kenntnisse (mind. B2)

Was wir Dir bieten

  • Code-Reviews, Pair-Programming und Brainstorming im Team
  • Agile Arbeitsweise in selbstorganisierten Teams
  • Eine Entwicklungsumgebung unter Linux
  • Einsatz moderner Technologien in unserer eigenen Microserver-Architektur
  • Flexible Arbeitszeiten und Mobiles Arbeiten für eine optimale Work-Life-Balance
  • 30 Tage Urlaub – zusätzlich hast Du auch an Weihnachten und Silvester frei
  • Transparente Entscheidungswege und Feedbackkultur, beispielsweise in Form von regelmäßigen Vollversammlungen und Unternehmensumfragen
  • Gemeinsame Events wie Koch- und Grillpausen, Tischkicker-Turniere und Firmenfeste
  • Frisches Obst, Getränke und ein eigenes Fitness-Studio
  • Weiterbildungsmöglichkeiten in Form von hausinternen Learning days sowie die Teilnahme an Meetups, Konferenzen oder anderen Events
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.