Job Search and Career Advice Platform

Aktiviere Job-Benachrichtigungen per E-Mail!

Backend AI-Developer mit einer Prise MLOps (mwx)

ONTEC AG

Wien

Remote

EUR 55 000 - 70 000

Vollzeit

Heute
Sei unter den ersten Bewerbenden

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Zusammenfassung

Ein führender Implementierungspartner für AI-Lösungen in Wien sucht einen Backend AI-Developer (m/w/x). Du spielst eine Schlüsselrolle in der Backend-Entwicklung und unterstützt MLOps-Aufgaben. Fundierte Kenntnisse in Python, CI/CD, und Docker sind erforderlich. Das Unternehmen bietet ein modernes Arbeitsumfeld, flexible Arbeitszeiten und Weiterbildungsmöglichkeiten. Interessierte können sich ab Januar 2026 bewerben.

Leistungen

4-Tage Woche
Vertrauensarbeitszeit
Homeoffice-First Arbeitsmodell
Extra Urlaubstage
Öffi Ticket oder Firmenparkplatz
Mitarbeiterinnen Vorsorge-Versicherung
Sehr gute Aus- und Weiterbildungsmöglichkeiten
Firmen-Events
After-Work-Sessions

Qualifikationen

  • Fundierte Python-Kenntnisse, insbesondere mit FastAPI.
  • Erfahrung mit CI/CD-Tools wie GitLab und Jenkins.
  • Erfahrung mit PostgreSQL und anderen Datenbanken.
  • Fähigkeit, Docker-Container zu erstellen und zu optimieren.
  • Vertrautheit mit dem Hosting von LLMs auf GPUs.
  • Erfahrung in der Entwicklung von Prompts für KI-Modelle.
  • Kenntnisse im Umgang mit Embeddings für semantische Suche.
  • Erfahrung mit Azure Kubernetes Service und OpenAI Services.
  • Solide Erfahrung in der Durchführung automatisierter Tests.
  • Hervorragende Englischkenntnisse in Wort und Schrift.

Aufgaben

  • Aufbau und Wartung von Backend-Services in Python.
  • Entwicklung und Optimierung von Prompts für KI-Modelle.
  • Nutzung von Embeddings für Suche und Empfehlungen.
  • Anpassung und Verwaltung von PostgreSQL-Datenbanken.
  • Bereitstellung von Anwendungen in Docker-Containern.
  • Unterstützung bei der CI/CD-Pipeline-Implementierung.
  • Hosting von LLMs auf NVIDIA GPUs.
  • Verwaltung von Deployments auf AKS.
  • Entwicklung von Lösungen zur Dokumentenextraktion.
  • Zusammenarbeit mit dem KI-Team zur Integration von Modellen.

Kenntnisse

Python
CI/CD
SQL
NoSQL
Docker
Prompt Engineering
Azure
Testing
Backend-Entwicklung

Tools

FastAPI
PostgreSQL
GitLab
Jenkins
NVIDIA GPUs
Jobbeschreibung

Backend AI-Developer mit einer Prise MLOps (m / w / x)

ONTEC ist Spezialist für businesskritische Systeme. Als führender Implementierungspartner unterstützen wir Unternehmen bei der Digitalisierung ihrer businesskritischen Geschäftsprozesse bei der Integration von AI-Lösungen sowie beim Betrieb ihrer kritischen Infrastruktur. Unsere Mitarbeiter schätzen das ausgezeichnete Arbeitsklima, die Möglichkeit, sich einzubringen, ihre Rolle aktiv mitzugestalten und sich laufend fachlich und persönlich weiterzuentwickeln.

Dienstort : Homeoffice 1020 Wien

Aufgaben

Als unser Backend AI-Developer mit einer Prise MLOps spielst du eine Schlüsselrolle beim Aufbau und der Wartung des Rückgrats unserer KI-Systeme. Dein Fokus liegt auf der Backend-Entwicklung, aber du unterstützt auch bei MLOps- und DevOps-Aufgaben, um einen reibungslosen Betrieb und nahtlose Deployments sicherzustellen.

  • Backend-Entwicklung: Aufbau und Wartung von Backend-Services in Python (FastAPI) zur Unterstützung von KI-Tools und Systemen.
  • Prompt Engineering: Entwicklung und Optimierung von Prompts für KI-Modelle zur Verbesserung der Leistung und Benutzerfreundlichkeit.
  • Arbeiten mit Embeddings: Nutzung von Embeddings zur Verbesserung von KI-Funktionen z. B. für Suche und Empfehlungssysteme.
  • Datenbankmanagement: Anpassung und Verwaltung von Datenbanken (PostgreSQL) zur effizienten Speicherung und Verarbeitung von Daten.
  • Containerisierung: Bereitstellung von Anwendungen in Docker-Containern und deren Verwaltung mit Portainer oder ähnlichen Tools.
  • CI/CD-Pipeline-Management: Unterstützung bei der Gestaltung, Implementierung und Wartung von CI/CD-Pipelines mit Tools wie GitLab und Jenkins.
  • Hosting von LLMs: Hosting und Optimierung von Large Language Models (LLMs) auf GPUs (NVIDIA).
  • Azure Kubernetes Service (AKS): Verwaltung von Deployments auf AKS und Nutzung von Azure OpenAI Services.
  • Dokumentenextraktion: Entwicklung von Lösungen zur Extraktion von Inhalten aus verschiedenen Dokumentformaten (z. B. PDF, MS Office).
  • Testing und Qualitätskontrolle: Automatisierte und manuelle Tests zur Überprüfung der Qualität von Such- und LLM-Ergebnissen.
  • Zusammenarbeit: Enge Zusammenarbeit mit dem KI-Team zur Integration und Bereitstellung von Machine‑Learning-Modellen in bestehende Systeme.
  • Support und Troubleshooting: Unterstützung bei der Lösung technischer Probleme während der Entwicklung und Integration von AI-Tools und Modellen.
  • Optional: Training von Modellen anhand von Beispieldaten.
  • Simple fun: -)
Qualifikation

Wir suchen jemanden, der technologiebegeistert ist, gerne Neues lernt und Backend-Entwicklung mit einer Prise MLOps kombinieren kann.

Muss:
  • Backend-Entwicklung: Fundierte Python-Kenntnisse, insbesondere mit FastAPI.
  • CI/CD-Kenntnisse: Erfahrung mit CI/CD‑Tools wie GitLab und Jenkins sowie die Fähigkeit, Pipelines zu unterstützen und zu warten.
  • Datenbank-Know‑how: Erfahrung mit SQL- und NoSQL‑Datenbanken, insbesondere PostgreSQL.
  • Docker-Kenntnisse: Fähigkeit, Docker‑Container zu erstellen und zu optimieren.
  • Hosting von LLMs: Vertrautheit mit dem Hosting und der Optimierung von Large Language Models auf GPUs (NVIDIA).
  • Prompt Engineering: Erfahrung in der Entwicklung und Optimierung von Prompts für KI‑Modelle.
  • Arbeiten mit Embeddings: Kenntnisse im Umgang mit Embeddings für Aufgaben wie semantische Suche und Empfehlungen.
  • Azure-Kenntnisse: Erfahrung mit Azure Kubernetes Service (AKS) und Azure OpenAI Services.
  • Testing: Solide Erfahrung in der Durchführung automatisierter und manueller Tests.
  • Sprachkenntnisse: Hervorragende Englischkenntnisse in Wort und Schrift.
Nice-to-have:
  • Frontend-Grundlagen: Auch wenn es nicht im Fokus steht, sind Kenntnisse in Angular oder anderen modernen Frontend‑Frameworks von Vorteil.
  • Cloud‑KI‑Modelle: Erfahrung mit der Integration von OpenAI oder anderen cloudbasierten KI‑Modellen.
  • Sprachkenntnisse: Gute Deutschkenntnisse in Wort und Schrift. (Wienerisch schadet nicht.)
Benefits

Unsere Mitarbeiterinnen schätzen unsere holokratische Organisation und die damit verbundene Safe‑Enough‑To‑Try‑Kultur, die es jedem ermöglicht, das zu tun, was er oder sie am besten kann und gleichzeitig die Organisation von innen zu gestalten. Wir tun alles, um unseren Mitarbeitenden ein Umfeld zu bieten, in dem sie sich wohlfühlen.

  • Möglichkeit einer 4‑Tage Woche
  • Vertrauensarbeitszeit
  • Homeoffice‑First Arbeitsmodell
  • Extra Urlaubstage
  • Öffi Ticket bzw. nach Verfügbarkeit auch einen Firmenparkplatz
  • Mitarbeiterinnen Vorsorge‑Versicherung
  • Sehr gute Aus‑ und Weiterbildungsmöglichkeiten
  • Jede Menge Spaß
  • Verschiedene Firmen‑Events
  • After‑Work‑Sessions
  • uvm

Wir schätzen Vielfalt und leben Diversität. Gerade bei der Entwicklung von geschäftskritischen AI‑Lösungen ist die Berücksichtigung verschiedenster Perspektiven und Lebensrealitäten wichtig! Entsprechend freuen wir uns über alle qualifizierten Bewerberinnen und Bewerber, unabhängig von Geschlecht, Alter, ethnischer Zugehörigkeit, Religion oder Weltanschauung, sexueller Orientierung oder Behinderung.

Wichtiger Hinweis

Aus organisatorischen Gründen können wir Bewerbungen erst ab Januar 2026 prüfen und Vorstellungsgespräche planen. Wenn du die richtige Person bist, möchten wir dich im März 2026 einstellen (oder im Februar, wenn wir dich frühzeitig finden). Bitte hab Geduld mit uns – wir versprechen es lohnt sich!

Wir hoffen, dein Interesse geweckt zu haben und freuen uns auf deine aussagekräftige Bewerbung. Bitte füge deinem Lebenslauf auch eine Liste mit Projekten (inkl. eingesetzter Technologien) hinzu.

Wir freuen uns auf dich!

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.