Darmstadt: Masterarbeit: Erklärbarkeit von Transformer-Modellen in der Autorschaftsverifikation
Jetzt bewerbenStellenbeschreibung
Hintergrund/Motivation:
Autorschaftsverifikation (AV) wird in Bereichen wie Forensik, Plagiatserkennung und Fake-News-Detektion eingesetzt, um den wahren Urheber eines Textes zu identifizieren. Ziel der AV ist es, zu klassifizieren, ob zwei oder mehr Texte von demselben Autor verfasst worden sind (Y) oder nicht (N). Wie in den meisten KI-Feldern heutzutage, basieren die leistungsfähigsten Modelle meist auf Transformer-Architekturen.
Während diese kontinuierlich neue Bestleistungen erzielen, beschränkt sich die Anwendung von Methoden zur Explainability (Erklärbarkeit) meist auf etwas ältere Modelle oder Architekturen. Das beschränkt die Anwendbarkeit neuester Methoden in der Praxis.
Ziel:
Das Ziel dieser Arbeit ist es, existierende Explainability-Methoden auf neuere, leistungsfähigere Modelle anzuwenden und dafür gegebenenfalls anzupassen. Des Weiteren sollen die entsprechenden Methoden, falls notwendig, erweitert werden, um auch für fachfremde Personen verständlich zu sein. Dies kann z.b. durch Visualisierungen oder das automatisierte Herausarbeiten der wichtigsten Eingabedaten realisiert werden.
Ergebnisse:
Die Arbeit soll illustrieren, welche Explainability-Ansätze für Transformer-Modelle geeignet sind oder dafür adaptiert werden können.
Außerdem sollen die verschiedenen Explainability-Ansätze verglichen und ggf. kombiniert werden, um ein Explainability-Framework zu erstellen, das in der Praxis angewandt werden kann. Dadurch bieten die Ergebnisse sowohl einen wissenschaftlichen Beitrag zur Erklärbarkeit von modernen Transformer-Modellen, als auch einen direkten praktischen Nutzen in der Anwendung der Methoden.
Hier sorgst Du für Veränderung
- Implementierung von einer oder mehr aktuellen Modelle zur Autorschaftsverifikation.
- Forschung und Implementierung von einer neuartigen Erklärbarkeitsmethode für Transformer-Modelle im Kontext von AV.
- Ausführliche Evaluierung und Vergleich der Methode mit existierenden SOTA-Methoden, auf Standard-Datensätzen (z.B. PAN).
Hiermit bringst Du Dich ein
- Kenntnisse im Bereich Machine Learning, idealerweise im Bereich NLP und Transformer-Modelle.
- Sehr gute Python-Kenntnisse, vorzugsweise Erfahrung mit PyTorch oder HuggingFace.
- Motivation, sich mit aktuellen Explainability-Ansätzen auseinanderzusetzen.
- Wissenschaftliches Interesse an Evaluationsmetriken in modernen KI-Systemen.
Was wir für Dich bereithalten
- Selbstständige Arbeitszeiteinteilung
- Einblicke in das Schnittfeld von akademischer Forschung und industrieller Anwendung
Wir wertschätzen und fördern die Vielfalt der Kompetenzen unserer Mitarbeitenden und begrüßen daher alle Bewerbungen – unabhängig von Alter, Geschlecht, Nationalität, ethnischer und sozialer Herkunft, Religion, Weltanschauung, Behinderung sowie sexueller Orientierung und Identität. Schwerbehinderte Menschen werden bei gleicher Eignung bevorzugt eingestellt. Unsere Aufgaben sind vielfältig und anpassbar – für Bewerber*innen mit Behinderung finden wir gemeinsam Lösungen, die ihre Fähigkeiten optimal fördern.
Mit ihrer Fokussierung auf zukunftsrelevante Schlüsseltechnologien sowie auf die Verwertung der Ergebnisse in Wirtschaft und Industrie spielt die Fraunhofer-Gesellschaft eine zentrale Rolle im Innovationsprozess. Als Wegweiser und Impulsgeber für innovative Entwicklungen und wissenschaftliche Exzellenz wirkt sie mit an der Gestaltung unserer Gesellschaft und unserer Zukunft.
Bereit für Veränderung? Dann bewirb Dich jetzt, und mach einen Unterschied! Nach Eingang Deiner Online-Bewerbung erhältst Du eine automatische Empfangsbestätigung. Dann melden wir uns schnellstmöglich und sagen Dir, wie es weitergeht.
Fraunhofer-Institut für Sichere Informationstechnologie SIT
Kennziffer: 82684 Bewerbungsfrist: