IBM 19.09.2018, 15:17 Uhr

IBM will die Black Box der KI öffnen

Die neue Technologie, die IBM gerade vorgestellt hat, soll mehr Transparenz in den Bereich der Künstlichen Intelligenz (KI) bringen. Die Software zeigt in Echtzeit auf welcher Grundlage Entscheidungsvorschläge zustande kommen und erkennt automatisch quantitative und qualitative Mängel in Daten und KI-Modellen.
Die neue Software läuft auf der IBM Cloud und soll Unternehmen helfen, KI-Systeme für eine große Bandbreite an Branchen und Kunden nutzbar zu machen, indem sie Vertrauen in die Qualität der Entscheidungsvorschläge schafft. Zusätzlich übergibt IBM Research ein KI-Toolkit zur Erkennung von systematischen Fehlern und Anpassung an die Open-Source-Community. Damit soll der weltweite Austausch und die Zusammenarbeit zur Entwicklung von vorurteilsfreien KIs gefördert werden.
David Kenny, SVP of Cognitive Solutions bei IBM: „Wir geben den Unternehmen, die KI einsetzen und dem potenziellen Risiko durch fehlerhafte Entscheidungen ausgesetzt sind, neue Transparenz und Kontrolle.” Grundlage sind Untersuchungen von IBMs Institute for Business Value. Demnach streben zwar 82 Prozent der Unternehmen eine KI Einführung an, aber 60 Prozent befürchten Probleme mit der Verlässlichkeit der Technologie. Und 63 Prozent haben nicht die Mitarbeiter im Haus, um die Technik sicher zu managen.
Die neue Software in der IBM Cloud arbeitet mit Modellen, die sich aus einer Vielfalt von Frameworks für maschinelles Lernen und KI-Umgebungen wie Watson, Tensorflow, SparkML, AWS SageMaker, und AzureML zusammensetzt. Somit profitieren Unternehmen von den Kontrollmöglichkeiten für die meistverbreiteten KI Frameworks. Man kann damit aber auch die Entscheidungsgrundlagen von jedem Workflow überwachen. Die Software lässt sich also an die individuellen Bedürfnisse der Unternehmen anpassen.
Der vollautomatisierte Software-Service erklärt die Entscheidungsfindung durch KI während der Verarbeitung. So werden potentielle Mängel in Quantität oder Qualität der dem System zur Verfügung gestellten Daten oder nicht balancierte Ergebnisse von vornherein vermieden. Die Software empfiehlt gegebenenfalls automatisch, dem Modell mehr Daten hinzuzufügen, um Anpassungen vorzunehmen.
Die Erklärungen sind einfach zu verstehen und zeigen alle Faktoren klar auf, die Entscheidungen der KI in die eine oder andere Richtung beeinflusst haben und wie vertrauenswürdig der Vorschlag ist. Die Datengrundlagen zur Treffsicherheit, Ausführung und Fairness und die Herkunft des jeweiligen KI-Modells werden aufgezeichnet. So können Kundenservice oder Compliance-Verantwortliche jederzeit Einsicht nehmen, was auch für die europäische Datenschutzrichtlinie DSGVO wichtig ist.
Diese Möglichkeiten können Mitarbeiter ohne IT-Kenntnisse mit Hilfe von visuellen Dachboards nutzen. So können nicht nur spezialisierte KI-Experten nachvollziehen, wie KI-Entscheidungen getroffen werden, was Abhängigkeiten verhindert und mehr Vertrauen schafft. IBM stellt auch neue Beratungsservices zur Verfügung, mit denen Unternehmen ihre eigenen Prozesse und Schnittstellen von Mensch zu KI erstellen können – um systematische Fehler in den Entscheidungsvorschlägen von KI zu minimieren.
Zusätzlich übergibt IBM Research das AI Fairness 360 Toolkit an die Open Source Community. Dabei handelt es sich um eine Bibliothek mit neuartigen Algorithmen, Codes und Tutorials. Mit dieser Hilfe bekommen Akademiker, Forscher und Datenexperten das Wissen und die Fähigkeiten, Verzerrungen eleminieren zu können, während sie an Modellen zum maschinellen Lernen arbeiten. Andere Open-Source-Quellen haben sich nur auf die Entdeckung von Verzerrungen in Trainingsdaten konzentriert. Das IBM AI Fairness 360 Toolkit kann systematische Fehler in KI-Modellen aufdecken und vermeiden helfen. Die weltweite Open-Source-Community ist eingeladen, gemeinsam daran zu arbeiten, die Wissenschaft voranzubringen und Verzerrungen in der KI zu adressieren.


Das könnte Sie auch interessieren