Capgemini 10.07.2019, 09:01 Uhr

Befragung zum Thema Ethik bei Künstlicher Intelligenz

Ethische Grundsätze gewinnen für das Vertrauen der Öffentlichkeit in die Künstliche Intelligenz eine immer bedeutendere Rolle. Das zeigt die neue Studie des Capgemini Research Institute für die 1.580 Führungskräfte sowie über 4.400 Verbraucher befragt wurden.
(Quelle: www.capgemini.com)
Verbraucher, Mitarbeiter und Bürger belohnen demnach ethisches Verhalten, sanktionieren aber auch zweifelhafte Praktiken. Als ethisch empfundene KI-Interaktionen steigern Kaufbereitschaft und Loyalität der Verbraucher gegenüber Unternehmen.
62 Prozent der befragten Verbraucher vertrauen Unternehmen mehr, wenn KI-basierte Interaktionen als ethisch wahrgenommen werden. Positive Erfahrungen würden 61 Prozent mit Freunden und Familie teilen, 59 Prozent würden eine höhere Loyalität gegenüber dem Unternehmen empfinden. Jeweils 55 Prozent geben an, sie würden in dem Fall mehr Produkte kaufen sowie gute Bewertungen in den sozialen Medien geben. Ethische Probleme[2] bei der KI-Interaktion, etwa fehlende Zustimmung zur Datennutzung oder intransparente und verzerrte Ergebnisse, haben negative Auswirkungen: 41 Prozent der Konsumenten würden sich beschweren, 36 Prozent eine Erklärung verlangen. Ein Drittel würde den Kontakt zum Unternehmen abbrechen.
In allen befragten Ländern glauben Führungskräfte aus knapp neun von zehn Unternehmen, dass die Nutzung von KI innerhalb der letzten zwei bis drei Jahre ethische Fragen aufgeworfen habe. Zu den Vorkommnissen zählen im Gesundheitswesen etwa das Erheben persönlicher Patientendaten ohne vorherige Zustimmung sowie ein übermäßiges Vertrauen in nicht transparente, maschinell getroffene Entscheidungen bei Banken und Versicherungen. 53 Prozent der Führungskräfte finden es wichtig sicherzustellen, dass KI-Systeme ethisch und transparent sind. 41 Prozent geben an, dass sie den Einsatz von ethisch problematischen KI-Systemen wahrscheinlich beenden würden oder dies bereits getan haben. Als wichtigste Gründe für ethische Defizite von KI-Systemen nennen Führungskräfte in Deutschland und weiteren Ländern den Druck, KI-Systeme schnell einzuführen sowie Ressourcenmangel und fehlende Berücksichtigung ethischer Standards bei der Einführung von KI-Systemen. Für Datenwissenschaftlicher sind fehlende Richtlinien und Daten die größten Hindernisse, der zeitliche Druck kommt an vierter Stelle.
Mit 47 Prozent (Deutschland (DE): 42 Prozent) gibt knapp die Hälfte der Befragten an, mindestens zwei Mal innerhalb der letzten zwei bis drei Jahre mit ethisch unzureichenden KI-Anwendungen konfrontiert worden zu sein. Wenn Leistungen KI-unterstützt sind, befürwortet die Mehrheit mehr Transparenz (74 Prozent) und möchte wissen, ob eine KI sie fair und diskriminierungsfrei behandelt (72 Prozent). Drei Viertel der Befragten, beziehungsweise 70 Prozent in Deutschland, sind der Ansicht, dass es weitere Regulierungen für Unternehmen zum KI-Einsatz geben sollte.
Um die Bedenken zu adressieren und vom Vertrauensbonus eines ethischen KI-Einsatzes zu profitieren, empfiehlt Capgemini einen dreiteiligen Strategieansatz für eine ethische KI, der alle beteiligten Interessengruppen berücksichtigt.
1. Managementebene, weitere Führungskräfte und für Vertrauen und Ethik zuständige Personen: Etablierung einer Strategie und eines Verhaltenskodex in Bezug auf KI als grundlegende Basis; Entwicklung von Richtlinien für einen akzeptable KI-Einsatz durch Mitarbeiter und Anwendungen; Verlässliche KI-Systeme und die Umsetzung von Organisationsstrukturen, welche ethische Prinzipien berücksichtigen; Aufbau von Teams mit hoher Diversität, um eine umfassende Sensibilität gegenüber ethischen Fragestellungen sicherzustellen.
2. Personalabteilung, Marketing, Kommunikation, Kundenservice und weitere Teams mit Kontakt zu Kunden und Mitarbeitern: Gewährleistung, dass KI-Anwendungen nach ethischen Prinzipien eingesetzt werden; fortlaufende Aufklärung und Informierung beteiligter Personen, um Vertrauen in KI-Systeme zu schaffen und ihnen mehr Entscheidungsfähigkeit und Kontrolle zu ermöglichen. Vertrauensbildung, indem durch KI hervorgerufene Probleme aktiv intern und extern bekanntgemacht werden.
3. Leiter sowie IT-, KI- und Datenteams: KI-Systeme transparent und verständlich umsetzen; Sicherstellung eines umfassenden Datenmanagements, um das Risiko tendenziöser, Ergebnisse verfälschender Daten zu reduzieren; Nutzung technischer Werkzeuge, um Ethik in der KI zu verankern.
Luciano Floridi, Director of Digital Ethics Labs, Oxford Internet Institute dazu: „Die klassische Art Vertrauen zu gewinnen, lässt sich auch bei KI-Interaktionen in drei Worten zusammenfassen: Transparenz, Verantwortlichkeit und Befähigung: Transparenz, damit Menschen sehen, was man tut; Verantwortlichkeit, weil man die Verantwortung übernimmt für das, was man tut; und Befähigung, indem man die Verantwortung dafür übernimmt, dass es anderen möglich ist zu sagen, ob man das richtige getan hat oder etwas nicht gut war.“
Die vollständige Studie ist hier verfügbar. Mehr unter www.capgemini.com/de.


Das könnte Sie auch interessieren