Uni Saarbrücken 15.05.2023, 09:00 Uhr

Vertrauen in KI schaffen

An einem neuen Graduiertenkolleg der Saarbrücker Informatik sollen nun Ansätze entwickelt werden, um wieder mehr Verständlichkeit und Vertrauen in die Künstliche Intelligenz zu bringen.
Alexander Koller, Professor für Computerlinguistik an der Universität des Saarlandes und Sprecher des neuen Graduiertenkollegs.
(Quelle: Universität des Saarlandes, Thorsten Mohr)
KI-Anwendungen wie ChatGPT beeindrucken zwar ihre Nutzer, bergen aber auch viele Risiken: Sie können zum Beispiel rassistische Vorurteile verstärken, für neuartige Cyberattacken genutzt werden oder Informationen falsch wiedergeben. Nicht einmal die Entwickler selbst wissen, wieso ihre Systeme diese Fehler machen – dazu sind sie zu komplex und intransparent. An einem neuen Graduiertenkolleg der Saarbrücker Informatik sollen nun Ansätze entwickelt werden, um wieder mehr Verständlichkeit und Vertrauen in die Künstliche Intelligenz zu bringen.
Am neuen Saarbrücker Graduiertenkolleg "Neuroexplicit Models of Language, Vision, and Action" wollen Wissenschaftlerinnen und Wissenschaftler systematische Grundlagen für den Ansatz entwickeln, der in Expertenkreisen auch als die "dritte Welle" der Künstlichen Intelligenz bezeichnet wird – sogenannte "neuroexplizite Modelle". Diese verbinden das Beste bisheriger KI-Ansätze zu einem Ganzen, das sicherer, verlässlicher und verständlicher werden soll. Beteiligt am Forschungsverbund sind am Saarland Informatics Campus die Fachrichtungen Informatik und Mathematik sowie Sprachwissenschaft und Sprachtechnologie der Universität des Saarlandes, das Deutsche Forschungszentrum für Künstliche Intelligenz und die Max-Planck-Institute für Informatik und für Softwaresysteme. Auch das nahegelegene CISPA Helmholtz-Zentrum für Informationssicherheit ist Projektpartner.
Unter der ersten Welle der Künstlichen Intelligenz versteht man die sogenannte explizite oder symbolische KI, bei der einem System genaue Regeln und Wissen über die Welt vorgegeben werden, wodurch es autonom agieren können soll. Die zweite Welle der Künstlichen Intelligenz, die für Quantensprünge in der KI-Entwicklung sorgte und heutzutage dank ChatGPT auch im täglichen Diskurs omnipräsent ist, basiert auf sogenannten "tiefen neuronalen Netzen". Dabei wird ein KI-System mit massenhaft Daten trainiert und lernt daraus selbstständig die Regeln und Konzepte, die es zum autonomen Handeln braucht. "Beide dieser Ansätze haben für sich gesehen mit Problemen zu kämpfen. So ist es unmöglich, einem symbolischen KI-System die gesamte Komplexität der Welt in vordefinierten Regeln vorzugeben", erklärt Alexander Koller, Professor für Computerlinguistik an der Uni Saarland. Neuronale Netze litten bekanntermaßen an Intransparenz, man bezeichnet sie auch als "Black Box". Da sie sich ihre Handlungsmuster anhand gigantischer Datenmengen selbst erschließen, würden sie oftmals so komplex, dass kein Mensch mehr nachvollziehen könne, warum ein auf neuronalen Netzen basierendes System etwas tue, sagt der Computerlinguist.
"Neuroexplizite Modelle sind ein vielversprechender Mittelweg", sagt Alexander Koller. Sie können Fachwissen erfassen, das dann nicht mehr aus Daten gelernt werden muss, oder eine Aufgabe so strukturieren, dass das Problem des neuronalen Lernens einfacher wird. "Ein autonomes Fahrzeug würde dann nicht nur mit Verkehrsregeln gefüttert, sondern auch mit physikalischen Formeln, etwa wie sich der Bremsweg bei Nässe verlängert, wie sich das Aussehen bestimmter Gegenstände in bestimmten Lichtverhältnissen verändert, oder damit, wie sich Fußgänger und andere Verkehrsteilnehmer typischerweise verhalten. Erst dann wird es mit diesem Vorwissen auf die Trainingsdaten losgelassen", erklärt Alexander Koller. Dieses Vorgehen führe einerseits zu sicheren und verlässlicheren Systemen, da man besser verstehen könne, was und woher ein System etwas weiß. Andererseits könnten dadurch die benötigten Trainingsdaten reduziert werden, da die vordefinierten Konzepte verallgemeinert werden können und das System somit nicht jeden Einzelfall lernen müsse, erklärt der Professor.
Das Graduiertenkolleg wird sich mit den großen KI-Anwendungsgebieten "Language", also zum Beispiel Sprachmodellierung à la ChatGPT, "Vision", also automatisierte Bilderkennung und -verarbeitung, sowie "Action" befassen. Letzteres kommt zum Beispiel beim autonomen Fahren zum Einsatz, wenn das Auto entscheiden muss, wie es sich in einer bestimmten Situation verhält. Im weiteren Schwerpunktbereich "Foundations" wird erforscht, welche Kombinationen aus expliziten sowie auf neuronalen Netzen basierenden Modellen für welchen Anwendungsfall am besten geeignet sind. Aus den Erfahrungen mit diesen Forschungsthemen wollen die Wissenschaftler allgemeine Designprinzipien erarbeiten, mit denen effektive neuroexplizite Modelle in Zukunft schneller entwickelt werden können.
In dem neuen Graduiertenkolleg wird die nächste Generation an KI-Forscherinnen und -Forschern ausgebildet, um diese herausfordernden Fragestellungen kompetent anzugehen. "Die Risiken von KI sind zweifellos groß, weshalb es an unserem Kolleg für alle Doktorandinnen und Doktoranden Pflicht ist, die preisgekrönte Vorlesung ‚Ethics for Nerds‘ zu besuchen", sagt Alexander Koller. Insgesamt sollen hier in den nächsten fünf Jahren 24 Doktorandenstellen und eine Stelle für erfahrene Wissenschaftler entstehen.
Webseite des neuen Graduiertenkollegs: www.neuroexplicit.org


Das könnte Sie auch interessieren