A luglio 2020 la Corte d’Appello inglese ha ritenuto contrario all’articolo 8 della Convenzione Europea dei Diritti Umani l’utilizzo di un sistema automatico di riconoscimento facciale (AFR) da parte della polizia del South Wales. Il pilot lanciato dalla polizia inglese nel 2017 infatti, raccoglieva dati su larga scala tramite CCTV installate in varie parti delle città, confrontando poi le informazioni biometriche raccolte con una lista di soggetti potenzialmente pericolosi. Secondo i giudici, innanzitutto il software utilizzato non era stato sviluppato bilanciando in modo appropriato prevenzione del crimine e rispetto della privacy, ma soprattutto non aveva tenuto conto dei rischi di discriminazione che possono facilmente emergere da un’applicazione di un sistema di intelligenza artificiale (AI) senza un’appropriata valutazione.
Notoriamente, infatti, i sistemi di riconoscimento facciale hanno un tasso di errore altissimo, soprattutto a discapito di alcune categorie solitamente meno rappresentate come la comunità nera o le donne: quando nel 2018 la polizia del South Wales ha pubblicato i dati sul AFR è emerso che circa il 92% dei match confermati dalla macchina erano falsi positivi.
L’AFR deve infatti essere educato sia al riconoscimento dei dati biometrici, sia ai criteri da utilizzare per abbinare quello che “vede” con le immagini di repertorio inserite nel suo database. Una AI è come un bambino, deve nutrire la sua conoscenza con molti dati per imparare a riconoscerli, etichettarli correttamente e portare a termine gli obiettivi per cui è sviluppata. Se ad esempio non le diamo in pasto abbastanza informazioni su come riconoscere una determinata categoria, per l’AI questa non sarà “etichettata” e probabilmente non esiterà.
È chiaro quindi che se i database di partenza non sono sufficientemente rappresentativi e giusti (nel senso di rispondenti a dei parametri di giustizia), ma anzi come spesso accade, riproducono polarizzazioni (bias) insite nella società, ci si trova di fronte ad un altissimo rischio di automatizzare ed industrializzare un vero e proprio sistema di discriminazioni.
La comunità internazionale non ha dubbi sulle priorità: l’intelligenza artificiale per essere un vero strumento di progresso deve essere affidabile e credibile, e quindi anche evitare qualsiasi forma di discriminazione.
Ma se provassimo a fare di più? Se ci concentrassimo non solo su sistemi di AI attendibili, ma provassimo anche a lavorare su una maggiore affidabilità della nostra società?
È indubbio che negli ultimi mesi abbiamo visto una crescita esponenziale dei movimenti “liberatori” delle minoranze più note, da #blacklivesmatter alla voce sempre più forte delle donne che lottano per una parità mai raggiunta. Potremmo quindi pensare che l’intelligenza artificiale abbia un ruolo chiave in questa trasformazione? È possibile che l’AI stia supportando, con prove empiriche date proprio dai risultati dei processi svolti dall’algoritmo, il cambiamento degli equilibri (sbilanciati) su cui si fondava la società, quanto meno quella occidentale?
È come se l’AI fosse uno specchio. Sta facendo emergere, tramite un processo di analisi e sintesi di masse di informazioni incomputabili dall’essere umano, continue e profonde disproporzioni e discriminazioni di natura culturale.
Da questo punto di vista l’intelligenza artificiale diventa una compagna nel superamento della compiacenza con cui abbiamo spesso guardato l’evoluzione sociale di homo sapiens, costringendoci a nuove domande, ad alzare i tappeti e pulire la polvere accumulata.
Questa è l’etica. La capacità di mettere in discussione aspetti che oramai davamo per scontati, aree scure che ritenevamo (s)chiarite ma che necessitano di essere rilette alla luce di nuove contingenze sociali e culturali.
Oltre ad un’etica per l’intelligenza artificiale, possiamo quindi iniziare a pensare all’etica dell’intelligenza artificiale, quella riferita ai dubbi che lo sviluppo e l’applicazione dell’AI stanno solleticando.
Ecco che l’AI non solo è uno mezzo funzionale allo sviluppo tecnico dell’essere umano, ma diventa anche stimolatore di riflessioni sociali e strumento per rendere più equa (e affidabile) la nostra società. Stiamo creando un’Intelligenza Artisociale?
Luna BIANCHI, giurista