La diffusione degli strumenti algoritmici, sotto la cui definizione si intendono molteplici fenomeni, richiedono un “letto” di fiducia, al fine di creare una AI trustworthy. Proprio su questo tema, il National Institute of Standards and Technology (NIST) ha annunciato di lavorare su una bozza del rapporto interagenzie NIST (NISTIR 8332).
«Molti sforzi attuali mirano a valutare l’affidabilità del sistema di intelligenza artificiale attraverso misurazioni di accuratezza, affidabilità e spiegabilità, tra le altre caratteristiche del sistema. Sebbene queste caratteristiche siano necessarie, determinare che il sistema IA è affidabile perché soddisfa i suoi requisiti di sistema, non garantirà un’adozione diffusa dell’AI. È l’utente, l’essere umano colpito dall’intelligenza artificiale, che alla fine ripone la sua fiducia nel sistema.»
Chiedere all’IA di eseguire lo stesso compito in due diverse occasioni può portare a due risposte diverse poiché l’IA ha “imparato” nel tempo tra le due richieste. Dato questo significativo grado di imprevedibilità, è l’utente che, alla fine, deve decidere se fidarsi o meno dell’IA.
Il concetto di fiducia, che viene definito come “tratto umano”, «funge da meccanismo per ridurre la complessità.»
Serdar Kaya scrive: «Negli ambienti ancestrali, la sfiducia era fondamentale per la sopravvivenza, dato che portava gli umani a essere cauti contro i loro nemici più mortali: altri umani. Gli individui che consideravano gli altri esseri umani potenzialmente pericolosi e sfruttatori avevano maggiori probabilità di rimanere in vita e trasmettere i loro geni alle generazioni future.»
La fiducia diventa, pertanto, il cardine di un meccanismo condiviso di accettazione del nuovo da parte della comunità. La fiducia è inevitabilmente legata alla percezione del rischio in un dato contesto. Seguendo la teoria dei giochi, la fiducia e la sfiducia condizionali proteggono l’individuo dall’ingannare gli altri, pur continuando a raccogliere i potenziali benefici della cooperazione.
Kevin Anthony Hoff and Masooda Bashir, autori di “Trust in Automation”, hanno definito tre fonti di variabilità nella fiducia nell’automazione: disposizionale, relazionale e acquisita. I fattori di disposizione includono l’età, la cultura e la personalità del fiduciario (operatore o utente dell’automazione). I fattori relazionali riguardano il contesto dell’interazione uomo-automazione e vari aspetti del compito, come il carico di lavoro e il rischio. La fiducia acquisita è il risultato delle caratteristiche delle prestazioni del sistema e di progettazione. Se le persone si aspettano che l’automazione funzioni in modo impeccabile, gli errori commessi dall’automazione sono più dannosi per la fiducia rispetto agli errori commessi dagli ausili non automatizzati. Gli studi che hanno scoperto che un’automazione più antropomorfa suscita una maggiore “resilienza alla fiducia”. Quindi, citando Luhmann, segue il corollario che «la fiducia sia sempre più richiesta come mezzo per sopportare la complessità del futuro che la tecnologia genererà.»
Secondo Bill Gates, l’affidabilità di un sistema si poggia sul poter legittimamente fare affidamento sul servizio che fornisce e sulla capacità di eseguire come e quanto richiesto, ed è questa seconda definizione che incoraggia la creazione di caratteristiche che un’IA deve avere per essere affidabile. Si distinguono allora due fenomeni, la User Trust Potential, UTP, ovvero il Potenziale di fiducia degli utenti, che consiste negli attributi personali intrinseci dell’utente, e la Perceived System Trustworthiness, PST, equivalente alla Affidabilità percepita del sistema, costituito da una relazione tra l’esperienza utente (User experience UX) e l’Affidabilità tecnica: l’usabilità, la componente principale della UX, è composta da tre metriche secondo uno standard internazionale, cioè efficienza, efficacia e soddisfazione dell’utente.
Nel caso dell’IA, si rinvengono nove caratteristiche identificate che definiscono l’affidabilità del sistema di Intelligenza Artificiale: Accuratezza, Affidabilità, Resilienza, Obiettività, Sicurezza, Spiegabilità, Sicurezza, Responsabilità, e Privacy.
In conclusione, «È a causa di questa crescente complessità tecnologica che dobbiamo guardare alla prospettiva dell’utente se vogliamo comprendere la fiducia nell’IA. La fiducia nell’IA dipenderà da come l’utente umano percepirà il sistema. È questa fiducia, basata sulle percezioni degli utenti, che sarà necessaria per qualsiasi collaborazione uomo-IA.»
Raffaella AGHEMO, avvocato