Job Search and Career Advice Platform

Aktiviere Job-Benachrichtigungen per E-Mail!

Data Engineer (m/w/d)

getspecialfasteners.com

Bielefeld

Vor Ort

Vertraulich

Vollzeit

Vor 7 Tagen
Sei unter den ersten Bewerbenden

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Zusammenfassung

Ein innovatives Unternehmen der digitalen Beschaffung in Bielefeld sucht einen Data Engineer, der das Herzstück der Plattform gestaltet. In dieser Rolle entwickeln Sie Datenmodelle und Pipelines und sorgen dafür, dass unser gesamtes Business auf einem soliden Datenfundament aufbaut. Bewerber sollten umfassende Kenntnisse in PostgreSQL, ETL/ELT-Prozessen und Datenarchitekturen mitbringen. Gute Python-Kenntnisse und Erfahrung mit Event-driven Systemen sind ebenfalls erforderlich. Wir bieten eine transparente Vergütung und eine inspirierende Arbeitsumgebung, die Kreativität und Zusammenarbeit fördert.

Leistungen

Einfluss & Verantwortung
Transparente Vergütung
Team-Events & Offsites
Inspirierende Arbeitsumgebung
Fokus auf Talente

Qualifikationen

  • Erfahrung in produktiven Systemen als Data Engineer.
  • Tiefes Wissen in PostgreSQL, Query-Optimierung und Constraints.
  • Erfahrung mit Datenarchitekturen und ETL/ELT-Prozessen.

Aufgaben

  • Design transaktionaler Datenmodelle in PostgreSQL.
  • Aufbau von ETL/ELT-Pipelines zwischen Systemen.
  • Implementierung von Data Quality Checks und Monitoring.

Kenntnisse

PostgreSQL
SQL (CTEs, Window Functions)
ETL/ELT
Python
Event-driven Systeme
Data Quality

Ausbildung

Erfahrung als Data Engineer

Tools

BigQuery
Git
CI/CD
Jobbeschreibung

Bielefeld (Hybrid)

Wir bauen die digitale Beschaffungs‑Engine für den deutschen Mittelstand – und du legst mit dem Team das Datenfundament, auf dem unser gesamtes Business läuft

Diese Rolle ist nichts für Dashboard‑Builder oder reine Analysten. Du entwickelst als Data Engineer das Herzstück unserer Plattform: unsere Datenmodelle, unsere Pipelines, unsere Event‑Architektur und die Systeme, die Pricing, Produktsuche, Forecasting, Automatisierung und ML antreiben. Deine Arbeit entscheidet, ob wir skalieren, oder nicht.

Wenn du Datenarchitekturen liebst, komplexe Modelle bauen willst und eine Plattform von 0 → 1 mitgestalten möchtest, ist das hier dein nächster Karriereschritt.

Aufgaben

Datenmodellierung & Architektur

  • Design des transaktionalen Datenmodells in PostgreSQL für Produkte, Preise, RFQs, Kunden & Bestellungen
  • Aufbau des analytischen Modells in BigQuery (Star Schema, Partitioning, Clustering)
  • Entwicklung einer event‑driven Data Architecture mit Pub/Sub & Change Data Capture
  • Entscheidungen zu Normalisierung, Denormalisierung & Performance‑Optimierung

Pipelines & Data Engineering

  • Aufbau von ETL/ELT‑Pipelines zwischen PostgreSQL, BigQuery und Third‑Party‑Systemen
  • Entwicklung von Event‑Processing‑Pipelines über Pub/Sub
  • Integration externer Datenquellen (ERP, CRM, Lieferanten‑APIs, E‑Commerce, Payment)
  • Implementierung von Data Quality Checks, Validation, Monitoring & Error Handling
  • Nutzung von dbt für Transformationen und modularen Datenaufbau

Analytics & ML‑Enablement

  • Aufbau des Data Warehouses und Bereitstellung sauberer Daten für Business & Product
  • Strukturierung von Features für Pricing‑Models, Forecasting & Recommendation
  • Implementierung von Vector Search (pgvector) und Datenbereitstellung für RAG‑Systeme
  • Unterstützung bei Embeddings, Feature Stores, ML‑Pipelines & Real‑Time‑Serving

Data Governance & Operations

  • Implementierung von Data Lineage, ERDs & Dokumentation
  • IAM‑ und Row‑Level‑Security‑Design
  • Backup‑ & Recovery‑StrategienGDPR‑konforme Datenhaltung & Anonymisierung
Qualifikation
  • Erfahrung als Data Engineer in produktiven Systemen
  • Tiefe Kenntnisse in PostgreSQL, Query‑Optimierung, Indizes & Constraints
  • Sehr stark in SQL (CTEs, Window Functions, Performance Tuning)
  • Erfahrung mit BigQuery (oder Snowflake / Redshift)
  • Praxis in ETL/ELT, Batch vs. Streaming, Data Quality, Validation
  • Python‑Skills für Data Processing & API‑Workflows
  • Erfahrung mit event‑driven Systemen (Pub/Sub, MQ, CDC)
  • Verständnis für B2B‑ oder E‑Commerce‑Datenmodelle
  • Git, CI/CD
  • Hohe Eigenständigkeit & Ownership

Nice to have

  • GCP‑Erfahrung: BigQuery, Cloud SQL, Pub/Sub, Cloud Functions
  • dbt
  • Airflow / Cloud Composer
  • pgvector / Pinecone / Weaviate
  • ML Feature Engineering
  • Erfahrungen mit RAG‑Systemen & LLM‑Integration
  • Terraform / IaC
  • Erfahrung im 0 → 1‑Startup‑Umfeld
Benefits

Einfluss & Verantwortung
Du legst mit dem CTO die Grundlage für Automatisierung, Pricing & ML. Alles, was du baust, ist entscheidet für die Skalierbarkeit. Nah am Startup‑Ökosystem in Berlin und OWL.

Transparente Vergütung
Wir kommunizieren unser Vergütungsmodell klar und offen.

Team-Events & Offsites
Regelmäßige Teamevents und Offsite‑Meetings stärken Zusammenhalt.

Inspirierende Arbeitsumgebung
Moderne, hochwertige Arbeitsräume in Bielefeld fördern Kreativität und Zusammenarbeit.

Sinnstiftende Arbeit
Dein Beitrag macht die industrielle Beschaffung effizienter, mit direktem Impact auf Branchen.

Fokus auf Talente
Wir schaffen ein Umfeld für selbstmotivierte Top‑Performer und geben dir beste Bedingungen für Wachstum.

Wir wollen wissen: Warum du? Warum jetzt? Warum das hier?

Let's f*ing go!

Bei getspecialfasteners.com schätzen wir Chancengleichheit und Diversität. Wir begrüßen alle Bewerbungen unabhängig von Alter, Geschlecht, Nationalität, Behinderung, Religion, sexueller Orientierung sowie ethnischer und sozialer Herkunft.

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.