Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer Big Data (all genders) - Datenbankentwicklung / BI, Ingenieur

solute

Karlsruhe

Vor Ort

EUR 50.000 - 70.000

Vollzeit

Vor 29 Tagen

Erhöhe deine Chancen auf ein Interview

Erstelle einen auf die Position zugeschnittenen Lebenslauf, um deine Erfolgsquote zu erhöhen.

Zusammenfassung

Ein führendes Unternehmen in der Datenverarbeitung sucht einen Data Engineer, der für die Entwicklung und Optimierung von Dateninfrastrukturen verantwortlich ist. In dieser Rolle werden Sie Datenpipelines definieren und implementieren sowie skalierbare Datenbanken modellieren. Das Unternehmen bietet eine agile Arbeitsumgebung, flexible Arbeitszeiten und zahlreiche Weiterbildungsmöglichkeiten, um eine optimale Work-Life-Balance zu gewährleisten.

Leistungen

Flexible Arbeitszeiten
30 Tage Urlaub
Weiterbildungsmöglichkeiten
Fitness-Studio
Transparente Entscheidungswege
Gemeinsame Events

Qualifikationen

  • Praktische Erfahrung in der Implementierung von Dateninfrastrukturen und -pipelines.
  • Erfahrung im Umgang mit großen Datenmengen und in der Implementierung von ETL-Prozessen.
  • Gute Deutsch- und Englisch-Kenntnisse (mind. B2).

Aufgaben

  • Entwicklung und Optimierung der Dateninfrastruktur.
  • Definition und Implementierung von Datenpipelines.
  • Modellierung skalierbarer Datenbanken zur Strukturierung der Daten.

Kenntnisse

Dateninfrastruktur
Datenpipelines
Python
Datenmodellierung
Datenanalyse
Agile Methoden
Kommunikationsfähigkeit
Analytisches Denken
Datenschutz
Teamfähigkeit

Tools

Google Cloud
Databricks
Google Looker

Jobbeschreibung

  • Du sorgst für die Bereitstellung reibungsloser Datenprozesse (Entwicklung und Optimierung der Dateninfrastruktur)
  • Du bist für die Definition und Implementierung von Datenpipelines zuständig
  • Du schaffst die optimalen Rahmenbedingungen für die Suche und das Abrufen der Daten (Modellierung skalierbarer Datenbanken, um die Daten zu strukturieren)
  • Du entwickelst / nutzt geeignete Frameworks zur Speicherung und Verwaltung der Flut an Daten, die den Verfügbarkeits-, Integritäts- und Sicherheitsanspruch erfüllen
  • Du nutzt automatisches Testing, um eine hohe Qualität der erstellten Prozesse und der verarbeiteten Daten sicherzustellen

Das bringst Du mit

  • Praktische Erfahrung in der Implementierung von Dateninfrastrukturen und -pipelines
  • Erfahrung im Umgang mit großen Datenmengen und in der Implementierung von ETL-Prozessen
  • Erfahrung im sicheren Umgang mit Google Cloud, Databricks und Google Looker erwünscht
  • Sehr gute Kenntnisse in der Modellierung und der Abfrage von relationalen Daten im Big Data Kontext
  • Kenntnisse im Bereich Datenschutz und -sicherheit
  • Einschlägige praktische Programmierkenntnisse (Python)
  • Du verfügst über Data-Scientist-Kenntnisse, um die Anforderungen zur bestmöglichen Analyse zu berücksichtigen
  • Du hast Erfahrung mit agilen Arbeitsmethoden
  • Ein sehr gutes analytisches Denkvermögen sowie eine selbstständige, strukturierte und lösungsorientierte Arbeitsweise
  • Eine ausgeprägte Kommunikations- und Teamfähigkeit
  • Gute Deutsch- und Englisch-Kenntnisse (mind. B2)

Was wir Dir bieten

  • Code-Reviews, Pair-Programming und Brainstorming im Team
  • Agile Arbeitsweise in selbstorganisierten Teams
  • Eine Entwicklungsumgebung unter Linux
  • Einsatz moderner Technologien in unserer eigenen Microserver-Architektur
  • Flexible Arbeitszeiten und Mobiles Arbeiten für eine optimale Work-Life-Balance
  • 30 Tage Urlaub – zusätzlich hast Du auch an Weihnachten und Silvester frei
  • Transparente Entscheidungswege und Feedbackkultur, beispielsweise in Form von regelmäßigen Vollversammlungen und Unternehmensumfragen
  • Gemeinsame Events wie Koch- und Grillpausen, Tischkicker-Turniere und Firmenfeste
  • Frisches Obst, Getränke und ein eigenes Fitness-Studio
  • Weiterbildungsmöglichkeiten in Form von hausinternen Learning days sowie die Teilnahme an Meetups, Konferenzen oder anderen Events
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.