Künstliche Intelligenz braucht eine Ethik-Basis

Ethische Grundsätze gewinnen für das Vertrauen der Öffentlichkeit in die Künstliche Intelligenz eine bedeutende Rolle. Das zeigt eine Studie des Capgemini Research Institute. Verbraucher belohnen demnach ethisches Verhalten, sanktionieren aber auch zweifelhafte Praktiken.

1.580 Führungskräfte von Großunternehmen aus zehn Ländern sowie über 4.400 Verbraucher aus sechs Ländern hat Capgemini Research für die Studie „Why adressing ethical Questions in AI will benefit Organizations” befragt. 62 Prozent der befragten Verbraucher vertrauen Unternehmen mehr, wenn sie den Kontakt mit Künstlicher Intelligenz als ethisch wahrnehmen. Positive Erfahrungen würden 61 Prozent mit Freunden und Familie teilen, 59 Prozent würden dann eine höhere Loyalität gegenüber dem Unternehmen empfinden. Jeweils 55 Prozent geben an, sie würden in einem solchen Fall mehr Produkte kaufen sowie gute Bewertungen in den sozialen Medien geben. Ethische Probleme bei beim Kontakt mit intelligenter Technologie – etwa fehlende Zustimmung zur Datennutzung oder intransparente und verzerrte Ergebnisse – haben auf der anderen Seite negative Auswirkungen: 41 Prozent der Konsumenten würden sich darüber beschweren, 36 Prozent eine Erklärung verlangen. Ein Drittel würde den Kontakt zum Unternehmen sogar völlig abbrechen.

Unternehmen erkennen ethische Fragen bei intelligenter IT

In allen befragten Ländern glauben Führungskräfte aus knapp neun von zehn Unternehmen, dass die Nutzung Künstlicher Intelligenz innerhalb der vergangenen zwei bis drei Jahre ethische Fragen aufgeworfen hat. Zu den Vorkommnissen zählen etwa im Gesundheitswesen das Erheben persönlicher Patientendaten ohne vorherige Zustimmung sowie ein übermäßiges Vertrauen in nicht transparente, maschinell getroffene Entscheidungen bei Banken und Versicherungen. 53 Prozent der Führungskräfte wollen sicherstellen, dass intelligente Systeme ethisch und transparent sind. 41 Prozent geben an, dass sie einen ethisch problematischen Einsatz wahrscheinlich beenden würden oder dies bereits getan haben. Als wichtigste Gründe für ethische Defizite von Künstlicher Intelligenz nennen Führungskräfte den Druck, diese Technologie schnell einzuführen sowie Ressourcenmangel und fehlende Berücksichtigung ethischer Standards bei der Einführung. Für Datenwissenschaftlicher stellen fehlende Richtlinien und Daten die größten Hindernisse dar. Der zeitliche Druck kommt an vierter Stelle.

Verbraucher erwarten gesetzliche Regulierungen

Mit weltweit 47 Prozent (Deutschland 42 Prozent) gibt knapp die Hälfte der Befragten an, mindestens zwei Mal innerhalb der letzten zwei bis drei Jahre mit ethisch unzureichenden Anwendungen Künstlicher Intelligenz konfrontiert worden zu sein. Werden Leistungen durch intelligente Systeme unterstützt, befürwortet die Mehrheit eine höhere Transparenz (74 Prozent) und möchte zudem wissen, ob eine die IT-Systeme sie fair und diskriminierungsfrei behandeln (72 Prozent). Drei Viertel der Befragten, beziehungsweise 70 Prozent in Deutschland, sind der Ansicht, dass es gesetzliche Regulierungen für den Einsatz Künstlicher Intelligenz geben sollte.

„Die Öffentlichkeit akzeptiert nach und nach Services auf Basis Künstlicher Intelligenz“, berichtet Fabian Schladitz, Leiter des Center of Excellence Künstliche Intelligenz bei Capgemini in Deutschland. „Allerdings sind sich die Verbraucher sind der möglichen ethischen Auswirkungen bewusst.“ Unternehmen stehen laut Schladitz an einem Scheideweg: „Es wird deutlich, dass es nicht allein um Vorschriften und Compliance geht, sondern ethische Grundsätze vorteilhaft für das eigene Geschäft sein können.“ Die Capgemini-Studie zeige zudem, dass Führungskräfte in Deutschland – neben Großbritannien – bereits heute mehr Vertrauen in intelligente IT-Systeme haben als ihre europäischen Kollegen. Zugleich seien die Verbraucher hierzulande prinzipiell genauso offen wie anderswo für den Einsatz dieser Technologie. Hierauf aufbauend sollten Unternehmen die passenden Strukturen und einen Wertekanon schaffen, um ethische Aspekte angemessen zu berücksichtigen und darauf achten, dass dies auch während der Entwicklung der entsprechenden IT-Systemen geschieht. Beim Einsatz dieser Technologie sei es mindestens genauso wichtig, alle Beteiligten über die Interaktion mit dieser Technologie umfassend zu informieren und sie zu befähigen, bewusst mit ihr umzugehen.

 Capgemini empfiehlt eine dreigeteilte Ethikstrategie

Um die Bedenken zu adressieren und vom Vertrauensbonus eines ethischen Einsatzes intelligenter Technologie zu profitieren, empfiehlt Capgemini einen dreiteiligen Strategieansatz:

  1. Managementebene, weitere Führungskräfte und für Vertrauen und Ethik zuständige Personen
    Etablierung einer Strategie und eines Verhaltenskodex in Bezug auf Künstliche Intelligenz als grundlegende Basis; Entwicklung von Richtlinien für einen akzeptablen Einsatz dieser Technologie durch Mitarbeiter und Anwendungen; Verlässliche IT-Systeme und die Umsetzung von Organisationsstrukturen, welche ethische Prinzipien berücksichtigen; Aufbau von Teams mit hoher Diversität, um eine umfassende Sensibilität gegenüber ethischen Fragestellungen sicherzustellen.
  2. Personalabteilung, Marketing, Kommunikation, Kundenservice und weitere Teams mit Kontakt zu Kunden und Mitarbeitern
    Sicher stellen, dass intelligente Anwendungen nach ethischen Prinzipien eingesetzt werden; beteiligte Personen fortlaufend aufklären und informieren, um Vertrauen in die intelligenten IT-Systeme zu schaffen und ihnen mehr Entscheidungsfähigkeit und Kontrolle zu ermöglichen. Vertrauen bilden, indem die durch Künstliche Intelligenz hervorgerufenen Probleme aktiv intern und extern bekanntgemacht und diskutiert werden.
  3. IT-Leiter und Data Scientists
    Alle Systeme mit Künstlicher Intelligenz müssen transparent und verständlich umgesetzt werden. Um das Risiko tendenziöser, Ergebnisse verfälschender Daten zu reduzieren, ist ein umfassendes Datenmanagement nötig. Darüber hinaus sollten technische Werkzeuge die Ethik in der Künstlichen Intelligenz verankern.

„Die klassische Art, Vertrauen zu gewinnen, lässt sich auch bei Interaktionen mit Künstlicher Intelligenz in drei Worten zusammenfassen“, erläutert Luciano Floridi, Director of Digital Ethics Labs, Oxford Internet Institute: „Transparenz, Verantwortlichkeit und Befähigung: Transparenz, damit Menschen sehen, was man tut; Verantwortlichkeit, weil man die Verantwortung übernimmt für das, was man tut; und Befähigung, indem man die Verantwortung dafür übernimmt, dass es anderen möglich ist zu sagen, ob man das richtige getan hat oder etwas nicht gut war.“

Die Studie ist hier kostenlos zum Download verfügbar.    Jürgen Frisch

Kommentare sind deaktiviert