Alla luce della pubblicazione delle linee guida della Commissione Europea sull’utilizzo dei sistemi di Intelligenza Artificiale, soprattutto nei settori della videosorveglianza, ove il punto di partenza è rappresentato da una congrua e primaria difesa della sicurezza e dei diritti fondamentali degli individui, appare quanto mai significativo il grave episodio verificatosi nello Stato americano del Michigan.
La Civil Rights Litigation Initiative (CRLI) della Scuola di Legge dell’Università del Michigan, l’American Civil Liberties Union (ACLU) e l’ACLU del Michigan, hanno intentato una causa federale, per conto del residente di Farmington Hills, Robert Williams.
«Sono tornato a casa dal lavoro e sono stato arrestato nel mio vialetto di fronte a mia moglie e alle mie figlie, che mi hanno guardato in lacrime, perché un computer ha commesso un errore», ha detto il signor Williams. «Questo non sarebbe mai dovuto accadere e voglio assicurarmi che questa dolorosa esperienza non accada mai a nessun altro.»
Ma vediamo l’antefatto: nel 2018, un negozio di orologi di Detroit aveva subito una furto, da parte di un taccheggiatore, nero, ripreso da una telecamera di videosorveglianza a scarsa risoluzione, in un ambiente poco illuminato, ove il volto del malvivente era solo parzialmente visibile, in quanto non in posizione frontale, rispetto all’obiettivo della telecamera!
Senonché, il Dipartimento di Polizia di Detroit, attraverso quel fermo immagine e combinandolo con sistemi di riconoscimento facciale, è arrivato ad indentificare in Robert Williams, appunto, l’artefice di quel furto. Il signor Williams è stato pertanto trattenuto 30 ore in un carcere di Detroit, in condizioni tutt’altro che agevoli.
Secondo Jeremy Shur, uno studente avvocato della CRLI, che rappresenta il signor Williams: «Le città di tutto il paese hanno vietato alla polizia di utilizzare la tecnologia di riconoscimento facciale per un motivo: la tecnologia è razzista, difettosa e porta facilmente a falsi arresti di persone innocenti, proprio come il nostro cliente.»
L’esperienza del signor Williams è stata il primo caso di arresto illegale dovuto alla tecnologia di riconoscimento facciale a venire alla luce negli Stati Uniti, secondo la denuncia.
Nella suddetta causa, si è affermato che i diritti del quarto emendamento del signor Williams sono stati violati e il suo arresto illegale ha rappresentato una violazione del Michigan Elliott-Larsen Civil Rights Act. L’accusa ha chiesto i danni e di modificare le politiche in atto, proprio per fermare l’abuso della tecnologia di riconoscimento facciale.
Le aggravanti del caso sono molteplici: l’arresto è avvenuto sulla base di uno screenshot, preso dal video di sorveglianza, e messo a confronto con una obsoleta foto della patente di Williams; questo fotogramma è stato mostrato all’addetto alla sicurezza del negozio, che non era neanche presente durante l’atto criminoso, ma che si è limitato ad indicare Williams tra una schiera di foto di sei soggetti; infine, nella denuncia, neppure è stato prodotto il video di sorveglianza, poiché, pare, che l’incriminazione si sia basata SOLO sui risultati del software di riconoscimento facciale!
Ecco che si presenta qui, un chiaro caso di quelli che Gilman ha definito “i pregiudizi di automazione”, secondo i quali la maggior parte dei giudici tende a ritenere più credibile un risultato algoritmico rispetto ad uno empirico.
Appare pertanto lodevole e giusta l’iniziativa annunciata da Twitter e denominata “Responsible ML”, la quale mira a scongiurare e mitigare gli impatti negativi dei suoi algoritmi, attraverso questo proposito: «Oggi vogliamo condividere di più sul lavoro che abbiamo svolto per migliorare i nostri algoritmi di ML all’interno di Twitter», processo che passa attraverso i seguenti pilastri:
- Assumersi la responsabilità delle decisioni algoritmiche;
- Equità e correttezza dei risultati;
- Trasparenza sulle decisioni e su come ci si sia arrivati;
- Abilitazione della scelta e capacità algoritmica.
I team di esperti si impegna ad affrontare: l´analisi del pregiudizio di genere e razziale del loro algoritmo di ritaglio delle immagini; la valutazione dell’equità delle raccomandazioni sulla sequenza temporale, tra i sottogruppi razziali; l´analisi dei contenuti consigliati, per diverse ideologie politiche, in sette paesi.
Raffaella AGHEMO, avvocato