Problem

Der Einsatz von künstlicher Intelligenz bietet enormes Potential. Fehlende Transparenz, unzureichende Robustheit oder vorhandene Datenschiefstand (auch als Bias bekannt) können aber schnell den Nutzen von KI ins Gegenteil verkehren und Probleme verursachen.
Die Vertrauenswürdigkeit der KI ist daher entscheidend, um die Wirksamkeit, Sicherheit und Gerechtigkeit von KI-Systemen zu gewährleisten und das Vertrauen der Menschen in diese Systeme aufrechtzuerhalten.

Lösung

Ausgehend vom angedachten Einsatzgebiet sowie anzuwendenden Rechtsvorschriften (z.B. EU AI Act), wird definiert welche Dimensionen der Vertrauenswürdigkeit – Fairness, Sicherheit, Transparenz, Datenschutz, Verlässlichkeit, Autonomie und Kontrolle – überhaupt von Relevanz sind. In den ausgewählten Dimensionen erfolgt dann eine Risikoanalyse entlang der den jeweiligen Dimensionen zugeordneten Risikogebieten. Hieraus ergeben sich Zielvorgaben, für die in weiterer Folge qualitative und ggf. auch quantitative Kriterien definiert werden, anhand derer später das Erreichen der Zielvorgaben bewertet werden kann.​ Es wird dann überprüft, welche Maßnahmen (die auf eine Erfüllung der zuvor definierten Zielvorgaben hinwirken sollen) in der Entwicklung ergriffen und dokumentiert wurden und diese dann hinsichtlich ihrer Erfüllung/Nichterfüllung der Kriterien beurteilt. Daraus wird dann eine Bewertung je ausgewählter Dimension sowie eine Gesamtbewertung abgeleitet.

Nutzen

Die Entwicklung von KI nach Designprinzipien, die sich an Vertrauenswürdigkeit orientieren bzw. der Einsatz von vertrauenswürdiger KI zahlen sich in zweifacher Hinsicht aus: Einerseits wird dadurch sichergestellt, dass rechtliche Anforderungen, die in naher Zukunft an KI Lösungen gestellt werden, erfüllt werden und damit Investitionen in KI Technologie auch zukunftssicher sind. Andererseits wird nur dadurch das Vertrauen der Anwender:innen gewonnen werden, was in Zukunft ein wesentlicher Faktor für den Markterfolg sein wird.

Beratung zur KI Sicherheit
Sie wollen wissen ob Ihre Systeme und digitalen Prozesse zukünftigen KI Gesetzesgrundlagen entsprechen?
Dann kontaktieren Sie uns. Wir beraten Sie und unterstützen Sie bei der richtigen KI Struktur.

Anfrage

Know Center 360° Modell
Die High-Level Expert Group wurde von der Europäischen Kommission eingesetzt, um sie bei ihrer Strategie für künstliche Intelligenz zu beraten und legt Ethik-Richtlinien vor, um KI in Richtung Nachhaltigkeit, Wachstum, Wettbewerbsfähigkeit und Inklusion zu leiten.
Das Know Center 360° Modell ist in Abstimmung mit den Kernanforderungen der High-Level Expert Group zum Einsatz von KI entstanden. Unsere interdisziplinäre Forschung wird sich langfristig mit Robustheit, Sicherheit, Datenverwaltung, Transparenz, Vielfalt, Nichtdiskriminierung, Fairness und menschlicher Aufsicht befassen.