Das KI-basierte Sprachmodell GPT-3, „Generative Pre-Trained Transformer 3“, erhält derzeit über die Chat-GPT-Plattform viel Aufmerksamkeit. Chat-GPT ermöglicht die Generierung von menschenähnlichem Text auf der Grundlage einfacher Abfragen. Ein Nachteil von GPT-3 ist jedoch, dass es auf von Menschen generierten Daten aus dem Internet trainiert wird und daher anfällig für Verzerrungen ist.

KI-basierte Systeme sind von Natur aus anfällig für Verzerrungen, die zu einem unfairen Verhalten bestimmter Benutzergruppen führen könnten. Um dem entgegenzuwirken, betreiben wir Grundlagen- und angewandte Forschung in zwei Hauptbereichen: (i) Definition von Metriken und Methoden zur Messung und Erkennung von Verzerrungen und (ii) Entwicklung von Methoden zur Abschwächung von Verzerrungen und fairnessbewussten KI-Algorithmen. Für den ersten Bereich planen wir, im Rahmen unserer Trust-your-AI-Initiative (https://trustyour.ai/) an der Qualitätssicherung und Zertifizierung von KI zu arbeiten. Für den zweiten Bereich planen wir die Konzeption und Entwicklung von In-, Pre- und Post-Processing-Methoden, um fairnessbewusste KI-Algorithmen zu entwickeln.

Pre-Processing-Methoden bearbeiten die Eingabedaten von KI-Algorithmen, um eine faire Datendarstellung zu erreichen, während In-Processing-Methoden direkt versuchen, die innere Funktionsweise der KI-Algorithmen selbst anzupassen, um Fairness zu erreichen. Wir entwickeln Post-Processing-Methoden mit dem Ziel, den Output der KI-basierten Systeme in Richtung Fairness zu verändern, z. B. durch eine Neueinstufung einer Empfehlungsliste. Unser Ansatz kann Fairness in diesen Systemen erzwingen und einen wichtigen Standard für zukünftige Innovationen wie Chat-GPT oder andere KI-basierte Erfindungen setzen.

[1] Scher, S., Kopeinik, S., Truegler, A., & Kowald, D. (2023). Modelling the Long-Term Fairness Dynamics of Data-Driven Targeted Help on Job Seekers. Nature Scientific Reports.

[2] Kopeinik, S., Mara, M., Ratz, L., Krieg, K., Schedl, M., & Rekabsaz, N. (2023). Show me a „Male Nurse“! How Gender Bias is Reflected in the Query Formulation of Search Engine Users. In Proceedings of the 2023 Edition of the ACM CHI Conference on Human Factors in Computing Systems.