Künstliche Intelligenz (KI) kann als Universalwerkzeug einen wichtigen Beitrag leisten, um die Zukunftsfähigkeit von Wirtschaft und Gesellschaft angesichts enormer globaler Herausforderungen, von Pandemie bis Klimawandel, zu sichern. Gleichzeitig sind mit dem Einsatz von KI-Anwendungen auch Unsicherheiten und Risiken verbunden.

Mit dem sogenannten Artificial Intelligence Act hat die EU-Kommission kürzlich den Entwurf einer Verordnung vorgestellt, um Systeme zu regulieren, die Künstliche Intelligenz verwenden. Der Grundgedanke, die Entwicklung von KI in die richtigen Bahnen zu lenken und damit langfristig Vertrauen aufzubauen, ist positiv zu sehen. Zugleich besteht aber die Gefahr, dass dadurch die Wettbewerbsfähigkeit verloren geht bzw. die Entwicklung von KI-Systemen langwieriger und kostenintensiver wird.  

 

Pflichten für Anbieter und Nutzer

Im Fokus der Verordnung steht, KI-Systeme in Hochrisikobereichen zu regulieren. Dazu gehören zum Beispiel Bildung, Personalwesen, kritische Infrastruktur, Medizin etc. Künftig sollen konforme KI-Systeme ein CE-Kennzeichen erhalten, wobei Anbieter die Konformitätsbewertung der KI-Systeme im Hochrisikobereich weitgehend selbstverantwortlich vorzunehmen haben. Nur in einigen speziellen Bereichen mit besonders hohem Risiko soll die Bewertung verpflichtend durch eine externe Partei erfolgen.

Anbieter sollen dafür umfassende Compliance Anforderungen erfüllen, wie etwa ein Risiko- und Qualitätsmanagement einrichten, technische Dokumentationen und Protokolle aufbewahren, für angemessene Genauigkeit, Robustheit und Cybersicherheit sorgen usw. Dieses Self-Assessment ist zwar nur im Hochrisikobereich vorgeschrieben, die Verordnung ermutigt aber dazu, auch alle anderen Anwendungen zu bewerten.

Auch Anwender (ausgenommen ist die rein private Verwendung) sollen zur Überwachung der KI-Systeme verpflichtet werden, indem sie Systemanbieter über etwaige Risiken oder Fehlfunktionen informieren oder gegebenenfalls den Betrieb des Systems aussetzen.

Unterstützungsbedarf bei Konformitätsprüfungen

Insgesamt ist der Entwurf des Artificial Intelligence Act als ein erster guter Ansatzpunkt zu sehen, um weltweite Standards zu setzen und einen sicheren und transparenten digitalen EU-Binnenmarkt voranzutreiben. Eines der Hauptziele der Verordnung ist zudem, einen „Fleckerlteppich“ an nationalen Regelungen zu vermeiden. Die umfassenden Verpflichtungen könnten bei Unternehmen aber für Unsicherheit oder Überforderung sorgen und die Wertschöpfung von KI verringern oder gar verhindern. Konkrete Unterstützungs- und Förderangebote werden entscheidend sein, um die Innovationskraft von Unternehmen und die Kommerzialisierung von Forschungsergebnissen nicht einzubremsen.

Als eines der führenden europäischen Forschungszentren für selbsterklärende, die Privatsphäre respektierende KI bieten wir am Know-Center praktische Orientierungshilfen und Unterstützungsangebote für Unternehmen an. Begrüßungswert sind in diesem Zusammenhang auch die geplanten KI Sandbox-Programme der EU, bei denen KMUs und Start-Ups bevorzugt werden sollen. KI-Systeme sollen in einer regulatorischen „Sandbox“ (einem isolierten, von der Umgebung abgeschotteten Bereich) für einen begrenzten Zeitraum unter der Aufsicht nationaler Behörden getestet und trainiert werden können.