Job Search and Career Advice Platform

Aktiviere Job-Benachrichtigungen per E-Mail!

Masterarbeit: Erklärbarkeit von Transformer-Modellen in der Autorschaftsverifikation

Fraunhofer-Gesellschaft

Darmstadt

Vor Ort

EUR 40.000 - 60.000

Vollzeit

Heute
Sei unter den ersten Bewerbenden

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Zusammenfassung

Eine führende Forschungsorganisation in Darmstadt sucht einen motivierten Spezialisten im Bereich Machine Learning, um Erklärbarkeit für Autorverifikation zu entwickeln. Der Kandidat sollte Kenntnisse in NLP, Python und Erfahrung mit PyTorch oder HuggingFace mitbringen. Die Position bietet Einblicke in akademische Forschung und industrielle Anwendung, während innovative Lösungen für moderne KI-Systeme entwickelt werden. Flexible Arbeitszeiten und ein wertschätzendes Arbeitsumfeld werden geboten.

Leistungen

Selbstständige Arbeitszeiteinteilung
Einblicke in Forschung und Industrie

Qualifikationen

  • Motivation zur Auseinandersetzung mit aktuellen Explainability-Ansätzen.
  • Kenntnisse in modernen KI-Systemen erforderlich.

Aufgaben

  • Implementierung aktueller Modelle zur Autorschaftsverifikation.
  • Forschung und Implementierung neuartiger Erklärbarkeitsmethoden.
  • Evaluierung und Vergleich der Methoden mit bestehenden Optionen.

Kenntnisse

Kenntnisse im Bereich Machine Learning
Erfahrungen mit NLP und Transformer-Modellen
Sehr gute Python-Kenntnisse
Erfahrung mit PyTorch oder HuggingFace
Wissenschaftliches Interesse an Evaluationsmetriken
Jobbeschreibung

Hintergrund/Motivation:
Autorschaftsverifikation (AV) wird in Bereichen wie Forensik, Plagiatserkennung und Fake-News-Detektion eingesetzt, um den wahren Urheber eines Textes zu identifizieren. Ziel der AV ist es, zu klassifizieren, ob zwei oder mehr Texte von demselben Autor verfasst worden sind (Y) oder nicht (N). Wie in den meisten KI-Feldern heutzutage, basieren die leistungsfähigsten Modelle meist auf Transformer-Architekturen.
Während diese kontinuierlich neue Bestleistungen erzielen, beschränkt sich die Anwendung von Methoden zur Explainability (Erklärbarkeit) meist auf etwas ältere Modelle oder Architekturen. Das beschränkt die Anwendbarkeit neuester Methoden in der Praxis.

Ziel:
Das Ziel dieser Arbeit ist es, existierende Explainability-Methoden auf neuere, leistungsfähigere Modelle anzuwenden und dafür gegebenenfalls anzupassen. Des Weiteren sollen die entsprechenden Methoden, falls notwendig, erweitert werden, um auch für fachfremde Personen verständlich zu sein. Dies kann z.b. durch Visualisierungen oder das automatisierte Herausarbeiten der wichtigsten Eingabedaten realisiert werden.

Ergebnisse:
Die Arbeit soll illustrieren, welche Explainability-Ansätze für Transformer-Modelle geeignet sind oder dafür adaptiert werden können.
Außerdem sollen die verschiedenen Explainability-Ansätze verglichen und ggf. kombiniert werden, um ein Explainability-Framework zu erstellen, das in der Praxis angewandt werden kann. Dadurch bieten die Ergebnisse sowohl einen wissenschaftlichen Beitrag zur Erklärbarkeit von modernen Transformer-Modellen, als auch einen direkten praktischen Nutzen in der Anwendung der Methoden.

Hier sorgst Du für Veränderung
  • Implementierung von einer oder mehr aktuellen Modelle zur Autorschaftsverifikation.
  • Forschung und Implementierung von einer neuartigen Erklärbarkeitsmethode für Transformer-Modelle im Kontext von AV.
  • Ausführliche Evaluierung und Vergleich der Methode mit existierenden SOTA-Methoden, auf Standard-Datensätzen (z.B. PAN).
Hiermit bringst Du Dich ein
  • Kenntnisse im Bereich Machine Learning, idealerweise im Bereich NLP und Transformer-Modelle.
  • Sehr gute Python-Kenntnisse, vorzugsweise Erfahrung mit PyTorch oder HuggingFace.
  • Motivation, sich mit aktuellen Explainability-Ansätzen auseinanderzusetzen.
  • Wissenschaftliches Interesse an Evaluationsmetriken in modernen KI-Systemen.
Was wir für Dich bereithalten
  • Selbstständige Arbeitszeiteinteilung
  • Einblicke in das Schnittfeld von akademischer Forschung und industrieller Anwendung

Wir wertschätzen und fördern die Vielfalt der Kompetenzen unserer Mitarbeitenden und begrüßen daher alle Bewerbungen – unabhängig von Alter, Geschlecht, Nationalität, ethnischer und sozialer Herkunft, Religion, Weltanschauung, Behinderung sowie sexueller Orientierung und Identität. Schwerbehinderte Menschen werden bei gleicher Eignung bevorzugt eingestellt. Unsere Aufgaben sind vielfältig und anpassbar – für Bewerber*innen mit Behinderung finden wir gemeinsam Lösungen, die ihre Fähigkeiten optimal fördern.

Mit ihrer Fokussierung auf zukunftsrelevante Schlüsseltechnologien sowie auf die Verwertung der Ergebnisse in Wirtschaft und Industrie spielt die Fraunhofer-Gesellschaft eine zentrale Rolle im Innovationsprozess. Als Wegweiser und Impulsgeber für innovative Entwicklungen und wissenschaftliche Exzellenz wirkt sie mit an der Gestaltung unserer Gesellschaft und unserer Zukunft.

Bereit für Veränderung? Dann bewirb Dich jetzt, und mach einen Unterschied! Nach Eingang Deiner Online-Bewerbung erhältst Du eine automatische Empfangsbestätigung. Dann melden wir uns schnellstmöglich und sagen Dir, wie es weitergeht.

Fraunhofer-Institut für Sichere Informationstechnologie SIT

www.sit.fraunhofer.de


Kennziffer:82684Bewerbungsfrist:

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.