Digitale Transformation - Drei Falsche Fragen zu Vertrauen und KI



Sprachnavigation

Digitale Transformation Drei Falsche Fragen zu Vertrauen und KI

Publiziert am 23.09.2020, Marisa Tschopp

No Trust, No Use: Oft wird Vertrauen als kritischer Erfolgsfaktor propagiert, wenn es um die Akzeptanz und Nutzung von neuen Technologien geht. Doch ganz so einfach ist es nicht. Geht Nutzung und Akzeptanz von neuen Technologien tatsächlich mit Vertrauen einher? Um die Themen Vertrauen und KI (künstliche Intelligenz) besser in die Praxis zu bringen, braucht es erst einmal eins: bessere Fragen.

Der Einsatz von smarten, ubiquitären Technologien verschärft das Spannungsfeld zwischen Mensch, Maschine und Gesellschaft. Leidenschaftlich werden Debatten geführt, die in ihren Extremen zwischen den Weltuntergang verkündenden Nostradamus-Anhängern und den Heilsversprechenden Tech-Evangelisten festgefahren scheinen.

Die Unsicherheit und Skepsis wachsen, was unausweichlich zur Folge hat, dass die Frage des Vertrauens ins Rampenlicht gestellt wird: Wie schaffen wir es, dass die Konsumentinnen und Konsumenten uns vertrauen? Ein kluges Ablenkungsmanöver, um von den Schwächen der eigenen Firmenkultur oder der Qualität der Produkte abzulenken. Vor allem in der Praxis wird das Wort nahezu inflationär verwendet – in Design Guidelines, in der Werbung, in Image-Kampagnen oder Ethik-Codices von Tech-Firmen, Banken oder sonstigen KI-Startups. Doch dient es meist nur als ein gefässloses Füllwort, das irgendwelche positive Konnotationen hervorrufen soll. Man kann es auch «Trust Washing» nennen.

Es ist höchste Zeit, mit Mythen aufzuräumen, Klartext zu sprechen und damit aufzuhören, die falschen Fragen zu stellen.

1. Vertrauen Sie [der User] KI?

Die Frage, ob oder inwieweit jemand KI vertraut, ist eigentlich völlig sinnlos. Die Vertrauensfrage hat immer drei Dimensionen: Wer vertraut, wem Vertrauen geschenkt wird und auf welches Ziel sich dieses Vertrauen bezieht. Zum Beispiel: Ich vertraue Amazon, dass mein bestellter Artikel rechtzeitig geliefert wird. Aber ich vertraue Amazon nicht, dass die Firma meine persönlichen Daten «ethisch vertretbar» verwendet; nicht für Marketingzwecke missbraucht und mich mit fragwürdigen, «psychografischen» Mitteln analysiert.

Bessere Frage: Vertrauen Sie diesem [KI-basierten Produkt], Ziel X zu erreichen? 

2. Wie können wir [die Tech-Firma] das Vertrauen in KI erhöhen?

Die Stimmen aus der Marketing- und Sales-Abteilung werden laut: Wie können wir den Konsumenten steuern, beeinflussen oder manipulieren, damit das Vertrauen in KI-Produkt X und damit die Wahrscheinlichkeit der Adoption erhöht wird? Hier muss klar differenziert werden und eine Fokusänderung stattfinden: Vertrauen und Vertrauenswürdigkeit sind grundverschiedene Konzepte. Vertrauen ist eine Einstellung beim Konsumenten, während Vertrauenswürdigkeit eine Eigenschaft von Produkten, Prozessen oder einer Firma ist. Anleitungen, an diesen zu arbeiten, schiessen en masse aus dem Boden. Es ist wohl wahr: Vertrauen kann man nicht kaufen. Man muss es sich verdienen, indem man zeigt, dass man vertrauenswürdig ist.

Bessere Frage: Wie können wir vertrauenswürdig sein?

3. Sollten wir [die Gesellschaft] KI vertrauen?

«Niemals» würde J. Bryson sagen. KI-basierte Programme sind nichts, dem man vertrauen sollte. Software muss vertrauenswürdig sein, also so gebaut werden, dass sie – in diesem Fall die Entwickler – zur Verantwortung gezogen werden können. Dafür müssen wir wissen und prüfen können, was ein System kann und was nicht. Vertrauen ist irrelevant wie bei der Buchhaltung. Aus ethischer Sicht ist die Frage mehr als falsch.

Bessere Frage: Wie können wir KI besser verstehen?

Zahlreiche Forschungsgruppen aus der Psychologie versuchen mit gutem Grund, das Mysterium Vertrauen und Technologie besser aufzuschlüsseln: Wie beeinflusst Vertrauen die Art und Weise, wie wir uns auf eine Technologie verlassen und diese nutzen? Welche Rolle spielen andere Faktoren wie z. B. das Verständnis von KI oder die wahrgenommene Handlungsvollmacht (Stichwort: Agency!) für das Nutzerverhalten? Es wurden tödliche Unfälle dokumentiert aufgrund von «zu wenig oder zu viel Vertrauen» in eine Technologie: So z. B. das bekannte «Death by GPS»-Phänomen oder der Ingenieur, der mit dem Tesla verunglückte, weil er dem System vertraut hat, dass es ihn mit hundertprozentiger Verlässlichkeit autonom ans Ziel bringt. So hielt er es für angemessen, während der Fahrt Videospiele zu spielen. 

Das Schlussplädoyer lautet, die durchwachsene Situation zu nuancieren und einen transdisziplinären Weg einzuschlagen, der Wissenschaft, Praxis, Politik und weitere Stakeholder integriert. Es ist höchste Zeit, dass wir gemeinsam die richtigen Fragen stellen und diskutieren können.

 

Die Connecta kann leider nicht wie geplant durchgeführt werden. Marisa Tschopp wäre eine der 80 Referierenden gewesen. Mit Connecta TV, Dok und Talk wartet ein alternatives Programm auf Sie – Erfahren Sie mehr unter www.post.ch/connecta.

Marisa Tschopp

Marisa Tschopp ist Forschungsmitarbeiterin bei der scip AG, eine Cybersecurity und Technologiefirma in Zürich. Sie hat ihren Master in Wirtschaftspsychologie an der Ludwig-Maximilians-Universität in München absolviert. Sie ist aktiv in der Forschung zu künstlicher Intelligenz aus Humanperspektive, wobei sie sich auf psychologische und ethische Aspekte konzentriert. Sie hat unter anderem Vorträge an TEDx-Events gehalten und vertritt zudem die Schweiz als Ambassador in der Initiative Women in AI (WAI).

Marisa Tschopp

((commentsAmount)) Kommentare

Bei der Anfrage ist ein Fehler aufgetreten.
  • (( comment.firstname )) (( comment.lastname )) (( comment.published )) (( comment.content ))

Kontaktieren Sie uns

Sie haben Fragen an unsere Experten oder benötigen Beratung? Wir sind für Sie da!

Zum Kontakt