Künstliche Intelligenz 30.11.2021, 10:30 Uhr

KI-Regeln: Neues Whitepaper der Plattform Lernende Systeme

In einem aktuellen Whitepaper analysieren Experten der Plattform Lernende Systeme den EU-Vorschlag zur KI-Regulierung und benennen zusätzliche Kriterien, um das Gefahrenpotenzial eines KI-Systems beurteilen zu können.
(Quelle: plattform-lernende-systeme.de)
Im Whitepaper "Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten" analysieren Expertinnen und Experten der Plattform Lernende Systeme den Vorschlag zur KI-Regulierung, den die Europäische Kommission im April 2021 vorlegte und der nun im Europäischen Parlament und Ministerrat diskutiert wird. Sie konkretisieren die Kriterien, anhand derer sich die Risiken von KI-Systemen beurteilen lassen und betonen, dass KI-Systeme immer als Einzelfall und vor dem Hintergrund ihres jeweiligen Anwendungskontextes bewertet werden müssen. "Das gleiche System kann in einem Zusammenhang unproblematisch und in einem anderen höchst kritisch sein. KI für die Detektion von Hate Speech dürfte zum Beispiel zunächst als vergleichsweise unbedenklich gelten. Wenn die gleiche Anwendung aber von einem totalitären Staat genutzt wird, um kritische Stellungnahmen ausfindig zu machen und zu eliminieren, dann fällt die Bewertung gegenteilig aus", so Jessica Heesen, Medienethikerin der Eberhard Karls Universität Tübingen und Co-Leiterin der Arbeitsgruppe "IT-Sicherheit, Privacy, Recht und Ethik" der Plattform Lernende Systeme.
Wie kritisch ein System zu bewerten ist und wie stark es reguliert werden sollte, will die EU-Kommission im Vorhinein durch bestimmte Kriterien festlegen. Das Whitepaper der Plattform Lernende Systeme empfiehlt, folgende Fragen stärker in den Blick zu nehmen: ob die Empfehlungen oder Entscheidungen eines KI-Systems Menschenleben oder Rechtsgüter wie die Umwelt gefährden und wieviel Handlungsspielraum dem Menschen bei der Auswahl und Nutzung der Anwendung bleibt, etwa um bestimmte Funktionen abzuschalten. Nach Ansicht der Autorinnen und Autoren müssen die Kontroll- und Entscheidungsmöglichkeiten der Nutzer von KI-Systemen bei der Bewertung der Kritikalität stärker berücksichtigt werden. So ist es etwa ein Unterschied, ob eine KI-Software für den Aktienhandel Verkäufe automatisiert durchführt oder dem Aktienbesitzer lediglich Empfehlungen dafür gibt.
Ihr Fazit: Der Ansatz der Europäischen Kommission, KI-Systeme entsprechend ihres Gefahrenpotenzials zu regulieren, ist ein notwendiger Schritt auf dem Weg zu vertrauenswürdigen KI-Systemen. Insbesondere für Anwendungen mit höheren Autonomiegraden ist er jedoch nicht ausreichend. Es bestehe die Gefahr, dass die Risikoeinstufung eine Sicherheit vorgaukele, die ohne flankierende nicht-technische Maßnahmen nicht gewährleistet werden könne, so Peter Dabrock, Ethikprofessor an der Friedrich-Alexander-Universität Erlangen-Nürnberg und Mitglied der Plattform Lernende Systeme.

Beschwerdemöglichkeiten und Haftungsregeln

Generell lassen sich die Risiken von KI-Systemen nur bedingt vorhersehen. Anders als bei der Risikoeinschätzung von konventioneller Software lernen KI-Systeme selbstständig während ihres Einsatzes dazu und verändern sich laufend. Die Autorinnen und Autoren fordern, die Regulierung anhand des Risikopotenzials um weitere Mechanismen zu ergänzen, die während und nach der Anwendung des KI-Systems greifen. Sie schlagen ein Verbraucherschutzregime vor, das Nutzerinnen und Nutzern niedrigschwellige und zeitnahe Beschwerdemöglichkeiten bietet, etwa bei Diskriminierung durch ein KI-System. Zudem müsse die Verantwortung für die Risiken von KI-Systemen klar über Haftungsregeln aufgeteilt werden. So sollte im B2B-Bereich grundsätzlich der Anwender entsprechend dem Vertragsrecht verantwortlich für die von KI-Systemen gelieferten Ergebnisse sein. Für Anwendungen im öffentlichen Bereich sollte die öffentliche Hand die volle Verantwortung für diskriminierende oder schädliche Konsequenzen im Rahmen des öffentlichen Rechts tragen.
Das Whitepaper "Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten. Ein notwendiger, aber nicht hinreichender Baustein für Vertrauenswürdigkeit" finden Sie hier (PDF, 42 Seiten).


Das könnte Sie auch interessieren