BSI, Fraunhofer IAIS 27.05.2019, 07:33 Uhr

Prüfkatalog zur Zertifizierung von Künstlicher Intelligenz

Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS und das Bundesamt für Sicherheit in der Informationstechnik (BSI) wollen einen Prüfkatalog für den verantwortungsvollen Einsatz von KI-Anwendungen entwickeln.
(Quelle: Fraunhofer IAIS )
Anlässlich des 16. Deutschen IT-Sicherheitskongresses in Bonn Bad Godesberg verkündeten die Institutionen das Vorhaben. Ziel ist die Ausarbeitung konkreter Qualitäts- und Sicherheitsstandards, auf deren Grundlage technische Prüforganisationen künftig KI-Anwendungen sachkundig beurteilen können.
Die verantwortungsvolle und menschenzentrierte Entwicklung und Anwendung von intelligenten Technologien ist ein Kernthema der Kompetenzplattform KI.NRW, deren Aufbau das NRW-Landeskabinett Ende 2018 unter Leitung des Fraunhofer IAIS initiiert hat.
Als eine der deutschlandweit führenden Einrichtungen für angewandte Forschung für KI und Maschinelles Lernen verzahnt das Fraunhofer IAIS seine Kompetenzen mit der langjährigen Erfahrung des BSI in den Bereichen IT-Sicherheit sowie in der Ausgestaltung und Anerkennung von IT-Prüfstandards. "Mit dem BSI als zentrale Institution für die IT-Sicherheit in Deutschland haben wir einen Partner gewonnen, dessen Standards und Kriterien für Informationssicherheit deutschlandweit anerkannt sind und umgesetzt werden", erklärt Dr. Dirk Hecker, stv. Institutsleiter des Fraunhofer IAIS und Mitinitiator von KI.NRW.
"Deutschland braucht sich im Bereich der Künstlichen Intelligenz und des Maschinellen Lernens nicht zu verstecken", sagt BSI-Präsident Arne Schönbohm. "Als nationale Cyber-Sicherheitsbehörde und Kompetenzträger im Bereich der Kryptografie befassen wir uns bereits seit mehreren Jahren mit diesen Themen und verfolgen dabei einen ganzheitlichen Ansatz. Wir betrachten neben mathematisch-technischen Aspekten auch die wirtschaftliche, politische und gesellschaftspolitische Bedeutung von KI. Durch entsprechende Anforderungen und Standards im Bereich der KI tragen wir dazu bei, die Informationssicherheit in der Digitalisierung zu verbessern und damit das Vertrauen der Menschen in neue Technologien und Anwendungen zu erhöhen."
Die Entwicklung der KI-Zertifizierung wird derzeit von einem interdisziplinären Konsortium aus den Bereichen Maschinelles Lernen, IT-Sicherheit, Rechtswissenschaften und Ethik unter Leitung des Fraunhofer IAIS durchgeführt. Professor Dr. Dr. Frauke Rostalski von der Universität zu Köln leitet innerhalb der Kooperation die Arbeitsgruppe zur Einordnung der rechtswissenschaftlichen Aspekte der Zertifizierung und berät die Enquete Kommission »Künstliche Intelligenz« des Deutschen Bundestages. Zentral am Projekt beteiligt ist zudem das Team von Professor Dr. Markus Gabriel, der an der Universität Bonn zur Philosophie der Künstlichen Intelligenz forscht. Der im Konsortium entstehende Prüfkatalog soll Anfang 2020 veröffentlicht werden.
Prof. Dr. Markus Gabriel: "Ethische Prinzipien des menschlichen Handelns ergeben sich aus der menschlichen Lebensform und sozio-ökonomischen Entwicklung. Die Ethik einer KI muss jeweils den ethischen Standards der Gruppe der Anwender angepasst werden. Dazu gehört unter anderem eine Transparenz der grundlegenden Funktionsweise, Fairness gegenüber allen Beteiligten und die Sicherheit der Daten und Anwendung."
Prof. Dr. Dr. Frauke Rostalski: "Die Welt ist das, was wir aus ihr machen. Dies gilt gerade auch in Zeiten der digitalen Revolution. Die damit einhergehenden gesellschaftlichen Veränderungen durch die Fortschritte im Bereich der Künstlichen Intelligenz halten große Chancen bereit. Diese zum Wohle der Gesellschaft zu nutzen, setzt zu allererst einen verantwortungsvollen Umgang mit den neuen Technologien voraus. Die Wahrung ethischer und rechtlicher Grundsätze ist daher oberstes Prinzip in einer Gesellschaft, in der die Technik dem Menschen dient – und nicht umgekehrt."


Das könnte Sie auch interessieren