KI hilft bei der Erstellung von Vorhersagen in kritischen Bereichen, zum Beispiel bei der Durchsetzung von Gesetzen, bei der Analyse medizinischer Bilder oder bei der Entscheidung, ob einem potenziellen Kreditnehmer ein Darlehen gewährt werden sollte. Die Anfechtung dieser Vorhersagen und Entscheidungen endet oft in hochkomplexen und kaum verständlichen Erklärungen durch verantwortliche KI-Modelle – ein Status quo, der sich nun ändert.

KI-Modelle sind oft nicht so optimiert, dass die Nutzer sie verstehen können. Dies kann ein großes Problem darstellen, da die Möglichkeit, die Gründe für bestimmte Ergebnisse nachzuvollziehen, für endgültige Entscheidungen oder die Feststellung, ob ein Fehler gemacht wurde, von entscheidender Bedeutung sein kann. Die Sozialwissenschaften haben bereits Richtlinien für gute Erklärungen definiert, was von den Forschern der erklärbaren KI (XAI) fast immer übersehen wird. Die Verwendung dieser Richtlinien und Erkenntnisse zur Schaffung vertrauenswürdiger und erklärbarer KI ist sinnvoll, insbesondere wenn es um die Anwendung von XAI-Lösungen im realen Leben geht. Besondere Forschung am Know Center greift das Problem auf und schlägt Experimente vor, um empirisch zu beweisen, dass die Anpassung von Erklärungen an das Verständnis des jeweiligen Nutzers von großem Nutzen für Wissenschaft und Industrie ist.

Dies stellt nicht nur eine Verbesserung der XAI-Methoden dar, sondern eine Notwendigkeit in allen Bereichen, in denen XAI eingesetzt wird – angefangen bei der Prozessoptimierung in Zusammenarbeit mit Industriepartnern, die bereits einen immensen Nutzen für ihr Geschäft sehen.