Job Search and Career Advice Platform

Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer (w/m/d) für READO

bits&birds GmbH

Remote

Vertraulich

Vollzeit

Heute
Sei unter den ersten Bewerbenden

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Zusammenfassung

Ein innovatives Startup sucht einen Data Engineer, der stabile Daten-Pipelines baut und für qualitativ hochwertige Daten sorgt. In einem kleinen Team bist du direkt mit dem CTO in Kontakt und gestaltest die technische Zukunft aktiv mit. Cloud-native Technologien wie Google Cloud oder AWS sind von Vorteil, ebenso wie Erfahrung in SQL und Python. Es wird ein attraktives Gehaltspaket sowie eine Vertrauensarbeitszeit geboten. Die Position ist remote, solange du in Deutschland bist.

Leistungen

Remote Setup mit Vertrauen
Direkter Draht zum CIO
Attraktives Gehaltspaket
Vertrauensarbeitszeit & Eigenverantwortung

Qualifikationen

  • Erfahrung mit SQL & PostgreSQL sowie Python ist erforderlich.
  • Cloud-native Denkweise, idealerweise mit Google Cloud, AWS oder Azure.
  • Erfahrung mit Airflow und dbt für Datenmodellierung.

Aufgaben

  • Aufbau stabiler Daten-Pipelines für Datenverfügbarkeit.
  • Einrichtung von Zielspeichern für schnelle Datenanalysen.
  • Automatisierung der Qualitätssicherung bei Daten.

Kenntnisse

SQL
PostgreSQL
Python
Google Cloud
AWS
Azure
Airflow
dbt
Linux-Know-how
Jobbeschreibung

Ohne dich? Datenchaos. Mit dir? Klarheit, Tempo, Wirkung.

READO ist auf dem Weg, das Spotify für Bücher zu werden: Eine Social-Reading-Plattform mit rasant wachsender Reichweite und mutigen Produktideen. Das Unternehmen ist remote first und wird von einem jungen, leidenschaftlichen Gründerteam geführt, das bereits erfolgreich bewiesen hat, wie man digitale Produkte groß macht.

Damit Features wie Empfehlungen, Feeds oder Analytics wirklich fliegen können, braucht es jetzt eine starke Datenbasis.

Als Sparringspartner des CTO arbeitest du auf Augenhöhe mit dem Gründerteam und gestaltest die technische Zukunft aktiv mit. Der perfekte Zeitpunkt zum Einstieg ist jetzt. Dann können wir gemeinsam fliegen 🚀🚀

Aufgaben
  • Daten-Pipelines bauen, die halten, was sie versprechen – regelmäßig, stabil, nachvollziehbar
  • Zielspeicher für Auswertungen einrichten, z.B. BigQuery – du schaffst die Basis für schnelle Entscheidungen
  • Qualitätssicherung automatisieren – Vollständigkeit, Frische und einfache Checks inklusive
  • Events & Nutzerdaten strukturieren, damit sie für Suche, Feed & Empfehlungen nutzbar werden
  • Daten-Chaos reduzieren – Logs, Firestore, Postgres: Du sorgst für eine konsistente Lösung
Qualifikation
  • SQL & PostgreSQL? Deine Spielwiese. Kombiniert mit Python bist du im Datenflow zuhause
  • Cloud-native denkst du sowieso - Google Cloud ist ideal, aber auch AWS oder Azure sind eine gute Grundlage
  • Airflow, dbt & Co.: Du bringst Erfahrung mit wiederkehrenden Datenjobs und Modellierung mit
  • Du denkst in Events & Pipelines, nicht in Tabellen - Streaming, APIs & Caching sind für dich kein Neuland
  • Linux-Know-how ist ein Plus, denn du weißt, dass Container nicht von allein laufen
Benefits
  • Remote Setup mit Vertrauen: Du arbeitest, wo du willst, Hauptsache in DE
  • Kleines, starkes Team: Direkter Draht zum CIO, Product & App: Kein Overhead, kein Chaos
  • Attraktives Gehaltspaket, mit Spielraum je nach Erfahrung
  • Vertrauensarbeitszeit & Eigenverantwortung statt Micromanagement
Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.