Trasformazione digitale - Tre domande sbagliate sulla fiducia e l’intelligenza artificiale

Trasformazione digitale Tre domande sbagliate sulla fiducia e l’intelligenza artificiale

Pubblicato il 23.09.2020, Marisa Tschopp

No trust, no use (non mi fido, non utilizzo): spesso la fiducia viene presentata come fattore di successo critico quando si parla di accettare e utilizzare nuove tecnologie. Ma le cose non sono così semplici. Utilizzare e accettare nuove tecnologie è veramente una questione di fiducia? Per meglio inserire i temi della fiducia e dell’intelligenza artificiale nella prassi occorre innanzitutto porre domande più pertinenti.

L’impiego di tecnologie smart e ubiquitarie acuisce il contrasto fra essere umano, macchina e società. Gli appassionati dibattiti che ne scaturiscono sembrano ristagnare fra due posizioni estreme: da un lato i sostenitori di Nostradamus che preannunciano la fine del mondo, dall’altro gli evangelisti tecnologici che promettono la salvezza.

L’insicurezza e lo scetticismo aumentano, con l’inevitabile conseguenza che l’aspetto della fiducia viene catapultato in primo piano: come fare perché i consumatori abbiano fiducia in noi? Un’abile manovra diversiva per sviare l’attenzione dalle carenze della propria cultura d’impresa o della qualità dei prodotti. Nella prassi il termine fiducia è quasi inflazionato. Lo si trova ovunque: nelle direttive sul design, in pubblicità, nelle campagne d’immagine o nei codici etici di aziende tecnologiche, banche o altre start up dell’intelligenza artificiale. Ma la maggior parte delle volte serve solo da riempitivo privo di contenuti, sbandierato con l’intento di mettere in risalto connotati positivi. Questo fenomeno si chiama anche «trust-washing».

È giunto veramente il momento di spazzare via certi miti, dire pane al pane e vino al vino e smetterla di porre domande sbagliate.

1. Si fida [utente] dell’intelligenza artificiale?

A dire il vero chiedere se o quanta fiducia si abbia nell’intelligenza artificiale è del tutto privo di senso. L’aspetto della fiducia è sempre tridimensionale: chi accorda fiducia, chi la riceve e a quale obiettivo punta la fiducia. Per esempio: mi fido che Amazon consegni in tempo l’articolo che ho ordinato. Ma non confido nel fatto che Amazon usi i miei dati personali per scopi «eticamente sostenibili», si astenga dall’utilizzarli per obiettivi di marketing e non mi analizzi con strumenti dubbi e «psicografici».

Meglio chiedere: ha fiducia che questo prodotto [basato sull’intelligenza artificiale] possa raggiungere l’obiettivo X?

2. Come possiamo [noi azienda tecnologica] incrementare la fiducia nell’intelligenza artificiale?

Nella sezione marketing e vendite subito ci si chiede: come pilotare, influenzare o manipolare i consumatori per aumentare la loro fiducia nel prodotto di intelligenza artificiale X e le probabilità che lo accettino? E qui è necessario operare una chiara distinzione e un cambiamento di paradigma: la fiducia e l’affidabilità sono due concetti sostanzialmente differenti. La fiducia è un atteggiamento del consumatore, l’affidabilità è una caratteristica di prodotti, processi o di un’azienda. I consigli su come lavorare per ottenerle spuntano come funghi.  Una cosa è certa: la fiducia non si può acquistare, bisogna guadagnarsela dimostrando di essere affidabili.

Meglio chiedere: come possiamo essere affidabili?

3. Dovremmo [in quanto società] avere fiducia nell’intelligenza artificiale?

Mai, direbbe J. Bryson. Nei programmi basati sull’intelligenza artificiale non c’è nulla di cui fidarsi. Il software deve essere affidabile, strutturato cioè in modo tale che gli sviluppatori possano essere chiamati in causa. Per questo dobbiamo sapere e poter verificare cosa un sistema è in grado di fare e cosa no. La fiducia è irrilevante, come nella contabilità. Da un punto di vista etico la domanda è quindi assolutamente sbagliata.

Meglio chiedere: come fare per capire di più l’intelligenza artificiale?

Numerosi gruppi di ricerca in campo psicologico cercano a ragione di decifrare meglio il mistero della fiducia e della tecnologia: come influisce la fiducia sul modo di confidare nella tecnologia e di utilizzarla? Quale ruolo rivestono altri fattori come la comprensione dell’intelligenza artificiale, la capacità di agire attivamente (agentività!) o il comportamento dell’utente? Incidenti mortali testimoniano della «troppo poca o eccessiva fiducia accordata» a una tecnologia. Esempi: il noto fenomeno della «death by GPS» o l’ingegnere coinvolto in un incidente con la Tesla per aver dato retta al sistema che gli garantiva al 100% di arrivare in autonomia alla meta tanto da indurlo senza problemi a giocare con i videogame nell’auto in movimento.

Riassumendo, è opportuno apportare alcune sfumature a questo complesso contesto e optare per un approccio transdisciplinare che integri scienza, prassi, politica e altri gruppi d’interesse. È più che mai il momento di porre e discutere insieme le domande giuste.

 

Purtroppo l’evento Connecta non potrà svolgersi come pianificato. Marisa Tschopp sarebbe stata una degli 80 relatori. Un programma alternativo vi aspetta con Connecta TV, Dok e Talk. Per saperne di più: www.post.ch/connecta.

Condividi su

Marisa Tschopp

Marisa Tschopp è ricercatrice presso la scip AG, un’azienda di sicurezza informatica e tecnologica di Zurigo. Ha conseguito un master in psicologia economica presso l’università Ludwig-Maximilians di Monaco. Lavora nel campo della ricerca sull’intelligenza artificiale dal punto di vista umano, con accento su aspetti psicologici ed etici. Ha tenuto fra l’altro relazioni agli eventi TEDx e rappresenta la Svizzera come ambasciatrice della Women in AI (WAI) Initiative.

((commentsAmount)) Commenti

Si è verificato un errore durante la richiesta.
  • (( comment.firstname )) (( comment.lastname )) (( comment.published )) (( comment.content ))

Contattateci

Avete domande per i nostri esperti o avete bisogno di una consulenza? Siamo a vostra disposizione!

Vi preghiamo di contattarci