Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer (w / m / d) für READO

bits&birds GmbH

Hamburg

Remote

EUR 50.000 - 70.000

Vollzeit

Heute
Sei unter den ersten Bewerbenden

Zusammenfassung

Ein innovatives Unternehmen in Hamburg sucht einen Dateningenieur, der Datenpipelines aufbaut und mit Cloud-Technologien arbeitet. Du wirst in einem kleinen, dynamischen Team arbeiten und die technische Zukunft aktiv mitgestalten. Das Unternehmen bietet ein attraktives Gehalt, Vertrauensarbeitszeit und ein großartiges Remote-Setup. Voraussetzungen sind Erfahrung in SQL, PostgreSQL und der Cloud-Welt.

Leistungen

Remote Setup
Direkter Draht zum CIO
Attraktives Gehaltspaket
Vertrauensarbeitszeit

Qualifikationen

  • Erfahrung in SQL und PostgreSQL, kombiniert mit Python.
  • Cloud-native Denke, idealerweise mit Google Cloud, AWS oder Azure.
  • Erfahrung mit Airflow, dbt und wiederkehrenden Datenjobs.
  • Denken in Events und Pipelines, nicht in Tabellen.
  • Kenntnisse in Linux sind von Vorteil.

Aufgaben

  • Bauen von stabilen Daten-Pipelines.
  • Einrichten von Zielspeichern für schnelle Auswertungen.
  • Automatisierung der Qualitätssicherung.
  • Strukturierung von Events und Nutzerdaten.
  • Reduzierung von Daten-Chaos.

Kenntnisse

SQL
PostgreSQL
Python
Cloud-native Technologien
Airflow
Datenmodellierung
Streaming
APIs
Caching
Linux-Know-how

Tools

Google Cloud
AWS
Azure
Jobbeschreibung
Ohne dich? Datenchaos. Mit dir? Klarheit, Tempo, Wirkung.

READO ist auf dem Weg, das Spotify für Bücher zu werden : Eine Social-Reading-Plattform mit rasant wachsender Reichweite und mutigen Produktideen. Das Unternehmen ist remote first und wird von einem jungen, leidenschaftlichen Gründerteam geführt, das bereits erfolgreich bewiesen hat, wie man digitale Produkte groß macht.

Damit Features wie Empfehlungen, Feeds oder Analytics wirklich fliegen können, braucht es jetzt eine starke Datenbasis.

Als Sparringspartner des CTO arbeitest du auf Augenhöhe mit dem Gründerteam und gestaltest die technische Zukunft aktiv mit. Der perfekte Zeitpunkt zum Einstieg ist jetzt. Dann können wir gemeinsam fliegen 🚀🚀

Aufgaben
  • Daten-Pipelines bauen , die halten, was sie versprechen – regelmäßig, stabil, nachvollziehbar
  • Zielspeicher für Auswertungen einrichten , z.B. BigQuery – du schaffst die Basis für schnelle Entscheidungen
  • Qualitätssicherung automatisieren – Vollständigkeit, Frische und einfache Checks inklusive
  • Events & Nutzerdaten strukturieren , damit sie für Suche, Feed & Empfehlungen nutzbar werden
  • Daten-Chaos reduzieren – Logs, Firestore, Postgres : Du sorgst für eine konsistente Lösung
Qualifikation
  • SQL & PostgreSQL? Deine Spielwiese. Kombiniert mit Python bist du im Datenflow zuhause
  • Cloud-native denkst du sowieso - Google Cloud ist ideal, aber auch AWS oder Azure sind eine gute Grundlage
  • Airflow, dbt & Co. : Du bringst Erfahrung mit wiederkehrenden Datenjobs und Modellierung mit
  • Du denkst in Events & Pipelines , nicht in Tabellen - Streaming, APIs & Caching sind für dich kein Neuland
  • Linux-Know-how ist ein Plus, denn du weißt, dass Container nicht von allein laufen
Benefits
  • Remote Setup mit Vertrauen : Du arbeitest, wo du willst, Hauptsache in DE
  • Kleines, starkes Team : Direkter Draht zum CIO, Product & App : Kein Overhead, kein Chaos
  • Attraktives Gehaltspaket , mit Spielraum je nach Erfahrung
  • Vertrauensarbeitszeit & Eigenverantwortung statt Micromanagement
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.