Lo scorso 14 giugno 2023, il Parlamento europeo ha dato il suo benestare adottando con 499 voti a favore, 28 contrari e 93 astenuti, l’AI Act e cioè il Regolamento sull’Intelligenza artificiale, tanto atteso.
Ora inizia la fase conclusiva tra colloqui e ultimi giri di tavolo con i governi della UE per giungere al testo definitivo e, quindi alla sua pubblicazione in Gazzetta Ufficiale europea che si auspica tra la fine di quest’anno (2023) e l’inizio del prossimo (2024).
La ratio di fondo, senza entrare troppo nel merito del final draft, è quella di garantire che l’AI sia sviluppata e adoperata in modo conforme ai diritti dell’Unione.
Ad esempio, nello specifico tra gli altri l’AI Act intende “promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell’ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell’Unione, sostenendo nel contempo l’innovazione e migliorando il funzionamento del mercato interno”.
Ecco, la necessità che la normativa segua il cd risk based approach ovvero un approccio basato sul rischio stabilendo obblighi per fornitori/operatori dei sistemi di AI, a seconda del livello di rischio possibili e generabili. Da qui, i sistemi di AI aventi un livello di rischio non accettabile in relazione alla sicurezza delle persone dovranno essere tassativamente vietati.
Ma non è tutto, gli europarlamentari hanno voluto, tra gli altri, ampliare l’elenco inclusivo dei divieti sugli usi intrusivi e discriminatori dell’AI (sistemi di identificazione biometrica remota, sistemi di polizia predittiva riconoscimento delle emozioni, estrazione di dati). Il tutto per evitare che l’AI cagioni danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone.
Circa i sistemi di AI generativa (ChatGPT) introdotti nell’ultimissima versione grazie ad alcuni emendamenti apportati, occorre che rispettino i requisiti di trasparenza.
In generale, se da un lato l’AI Act intende stimolare l’innovazione nel campo delle tecnologie emergenti sostenendo in particolare le PMI, con sgravi grazie alla messa a disposizione di licenze open-source; dall’altro vuole rafforzare “il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio con un impatto significativo sui loro diritti fondamentali”.
La strada tracciata è quella giusta, per quanto prevedibili siano ulteriori sforzi per “rendere l’ambiente dell’AI amichevole e funzionale ai bisogni di tutti e non solo a quelli di pochi”, come sostengono alcuni autorevoli commentatori. Ma innegabili sono i benefici, specie se riconducibili ad un uso consapevole dell’AI.
Tuttavia, una domanda conclusiva sorge spontanea: quanto l’AI quale tecnologia all’avanguardia, sarà al “servizio dell’umanità” anziché uno strumento pericoloso che rischia l’appiattimento del pensiero umano? Ma di questo ne abbiamo già scritto.
Chiara PONTI, IT legal e nuove tecnologie