Job Search and Career Advice Platform

Aktiviere Job-Benachrichtigungen per E-Mail!

Masterarbeit: Robustheit von Autorschaftsverifikation gegenüber Adversarial Obfuscation

Fraunhofer Institute for Secure Information Technology SIT

Darmstadt

Vor Ort

EUR 40.000 - 60.000

Vollzeit

Gestern
Sei unter den ersten Bewerbenden

Erstelle in nur wenigen Minuten einen maßgeschneiderten Lebenslauf

Überzeuge Recruiter und verdiene mehr Geld. Mehr erfahren

Zusammenfassung

Ein führendes Forschungsinstitut in Darmstadt sucht motivierte Studierende, um innovative Lösungen im Bereich der Autorverifikation zu entwickeln. Die Arbeit umfasst die Implementierung von Angriffen zur Stilverschleierung und die Erforschung robuster AV-Methoden. Ideale Kandidaten haben Kenntnisse in Machine Learning und gute Python-Fähigkeiten. Sie erwartet ein interessanter Arbeitsplatz mit flexibler Zeiteinteilung und Einsichten in die Verbindung von Forschung und Industrie. Bewerbungen sind willkommen, um einen positiven Einfluss zu haben.

Leistungen

Selbstständige Arbeitszeiteinteilung
Einblicke in akademische Forschung und industrielle Anwendungen

Qualifikationen

  • Kenntnisse im Bereich Machine Learning, idealerweise im Bereich NLP und Transformer-Modelle.
  • Gute Python-Kenntnisse, vorzugsweise Erfahrung mit PyTorch oder HuggingFace.

Aufgaben

  • Implementieren und evaluieren von Angriffen zur Stilverschleierung.
  • Forschen und Implementieren von robusten AV-Methoden.
  • Selbstkritische Evaluierung und Vergleich mit Baselines.
  • Präsentieren der Ergebnisse und Diskussion der Schwachstellen aktueller Methoden.

Kenntnisse

Kenntnisse im Bereich Machine Learning
Python-Kenntnisse
Erfahrung mit PyTorch
Wissenschaftliches Interesse
Jobbeschreibung
Hintergrund/Motivation:

Autorschaftsverifikation (AV) wird in Bereichen wie Forensik, Plagiatserkennung und Fake-News-Detektion eingesetzt, um den wahren Urheber eines Textes zu identifizieren. Ziel der AV ist es, zu klassifizieren, ob zwei oder mehr Texte von demselben Autor verfasst worden sind (Y) oder nicht (N). Ein großes Problem besteht darin, dass Autor:innen ihren Schreibstil absichtlich verschleiern können (Adversarial Obfuscation). Solche Angriffe umfassen unter anderem Synonymersetzungen, Paraphrasen, maschinelle Übersetzungen oder den Einsatz von Sprachmodellen zur automatischen Umformulierung. Diese Angriffe führen häufig dazu, dass AV-Systeme falsche Entscheidungen treffen, da oberflächliche stilistische Marker verschwinden. Während aktuelle Systeme in kontrollierten Szenarien hohe Genauigkeit erreichen, fehlt es an systematischen Untersuchungen, wie robust sie gegenüber gezielten Verschleierungen sind.

Ziel:

Das Ziel dieser Arbeit ist es, verschiedene Angriffe zur Stilverschleierung zu untersuchen und ein AV-System zu entwickeln, welches möglichst robust dagegen ist. Dazu soll ein systematisches Framework aufgebaut werden, das:

  • Texte mit verschiedenen Obfuscation-Methoden transformiert
  • den Einfluss dieser Angriffe auf gängige AV-Modelle misst
  • und ein robustes Verfahren entwirft (z.B. mittels adversarial training oder kontrastivem Lernen), das diese Angriffe besser abwehrt
Ergebnisse:

Die Arbeit soll aufzeigen, wie anfällig bestehende AV-Ansätze gegenüber unterschiedlichen Verschleierungsstrategien sind und welche Ansätze besonders robust bleiben. Darüber hinaus wird ein adversarial-trainiertes Modell vorgestellt, das die Robustheit signifikant verbessert. Die Ergebnisse leisten einen Beitrag zur Entwicklung sicherer, praxisnaher AV-Systeme und liefern eine Grundlage für zukünftige Forschung zu adversarial robustness im Bereich der Stilometrie.

Hier sorgst Du für Veränderung:
  • Implementieren und evaluieren von Angriffen zur Stilverschleierung (Paraphrasen, Synonymersetzung, Übersetzungen, LLM-Umschreibung).
  • Forschen und Implementieren von robusten AV-Methoden (z.B. adversarial training, kontrastives Lernen).
  • Selbstkritische Evaluierung und Vergleich mit Baselines auf Benchmark-Datensätzen (z.B. PAN).
  • Präsentieren der Ergebnisse und Diskussion der Schwachstellen aktueller Methoden.
Hiermit bringst Du Dich ein:
  • Kenntnisse im Bereich Machine Learning, idealerweise im Bereich NLP und Transformer-Modelle.
  • Gute Python-Kenntnisse, vorzugsweise Erfahrung mit PyTorch oder HuggingFace.
  • Wissenschaftliches Interesse an Robustheit, Sicherheit und Evaluationsmetriken in KI-Systemen.
  • Motivation, sich mit adversarial attacks und modernen AV-Ansätzen auseinanderzusetzen.
Was wir für Dich bereithalten:
  • Selbstständige Arbeitszeiteinteilung
  • Einblicke in das Schnittfeld von akademischer Forschung und industrieller Anwendung

Wir wertschätzen und fördern die Vielfalt der Kompetenzen unserer Mitarbeitenden und begrüßen daher alle Bewerbungen – unabhängig von Alter, Geschlecht, Nationalität, ethnischer und sozialer Herkunft, Religion, Weltanschauung, Behinderung sowie sexueller Orientierung und Identität. Schwerbehinderte Menschen werden bei gleicher Eignung bevorzugt eingestellt. Unsere Aufgaben sind vielfältig und anpassbar – für Bewerber*innen mit Behinderung finden wir gemeinsam Lösungen, die ihre Fähigkeiten optimal fördern.

Mit ihrer Fokussierung auf zukunftsrelevante Schlüsseltechnologien sowie auf die Verwertung der Ergebnisse in Wirtschaft und Industrie spielt die Fraunhofer-Gesellschaft eine zentrale Rolle im Innovationsprozess. Als Wegweiser und Impulsgeber für innovative Entwicklungen und wissenschaftliche Exzellenz wirkt sie mit an der Gestaltung unserer Gesellschaft und unserer Zukunft.

Bereit für Veränderung? Dann bewirb Dich jetzt, und mach einen Unterschied!

Nach Eingang Deiner Online-Bewerbung erhältst Du eine automatische Empfangsbestätigung. Dann melden wir uns schnellstmöglich und sagen Dir, wie es weitergeht.

Fraunhofer-Institut für Sichere Informationstechnologie SIT

www.sit.fraunhofer.de

Kennziffer: 82694 Bewerbungsfrist:

Hol dir deinen kostenlosen, vertraulichen Lebenslauf-Check.
eine PDF-, DOC-, DOCX-, ODT- oder PAGES-Datei bis zu 5 MB per Drag & Drop ablegen.