Nel corso degli ultimi decenni e, in particolare, degli ultimissimi anni, si è avuto un sempre maggiore incremento del ruolo dell’Intelligenza Artificiale, con la conseguentemente applicazione della stessa a molti settori del vivere quotidiano.
Un ruolo fondamentale nello sviluppo esponenziale dei sistemi di IA è svolto dal meccanismo di machine learning, che consente alle macchine di imparare senza essere programmate esplicitamente: le macchine hanno iniziato ad ottenere autonomia funzionale e ad acquisire capacità motorie, capacità di apprendimento e capacità di adeguamento all’ambiente esterno senza il necessario controllo del cosiddetto “autore umano”, in modo non sempre prevedibile e con grande capacità di cognizione, comunicazione, espressione e imitazione delle espressioni umane nell’aspetto esteriore. Ed invero, in maniera semplicistica, il machine learning può essere definito come quel possesso di autoapprendimento e automiglioramento del sistema di IA che avviene in assenza di una programmazione esplicita: l’IA ha accesso a innumerevoli dati esterni che la stessa utilizzerà per apprendere autonomamente.
Dunque, può dirsi che i sistemi di IA siano tutti quei sistemi che inizialmente vengono programmati dall’uomo – il quale inserisce nella macchina degli input e degli output – ma che poi apprendono automaticamente tramite l’esperienza, ottenuta con l’acquisizione di dati dall’esterno.
Una volta chiarito cosa si intenda per sistema di Intelligenza Artificiale, pare opportuno accennare ai numerosi dibattiti che sono sorti nel mondo giuridico a seguito dell’utilizzo, in ambito tecnologico, del sistema di machine learning. Ed invero, tale meccanismo ha avuto – ed ha – numerose ripercussioni nell’ambito del diritto, poiché riesce a far sì che i sistemi di IA siano sempre più autonomi e simili all’essere umano. Ebbene, nonostante tali sistemi possano essere utilizzati quali strumenti per commettere un reato o possano, addirittura, essere considerati quali vittime di condotte illecite da parte dell’essere umano, la vera problematica giuridica sorge quando il sistema di IA si identifica con l’autore di un delitto. Infatti, un sistema di IA di ultima generazione, in quanto fornito di capacità di apprendimento e automazione, può essere coinvolto nella commissione di un reato. La domanda a cui il mondo giuridico si torva a dover rispondere, dunque, è “machina delinquere potest”? Tale domanda non trova ancora una risposta unanimemente accettabile e rappresenta uno dei più grandi interrogativi dei giorni nostri. Si sono sviluppate – a livello internazionale – due diverse ed opposte teorie: la prima prevede la possibilità di ritenere penalmente responsabili i sistemi di Intelligenza Artificiale; la seconda, al contrario, nega tale possibilità. La teoria cosiddetta “negazionista” trova fondamento nell’art. 27 della Costituzione italiana – e, dunque, nel principio di colpevolezza – che esprime il coinvolgimento soggettivo e personalistico dell’autore al fatto commesso. Ma vi è di più! Tale corrente fa leva anche sulle funzioni svolte dalla pena, sostenendo che queste ultime non possano essere svolte nei confronti di sistemi automatizzati, poiché i sistemi di IA sono assolutamente incapaci di provare quei sentimenti di timore o paura su cui si basa la dissuasone penale.
Sebbene ad oggi non abbia ancora senso parlare di responsabilità penale della macchina, poiché “machina sapiens” totalmente autonoma e distaccata dalla mano umana ancora non esiste, è però ipotizzabile che con l’esponenziale sviluppo dei sistemi di IA, tale macchina possa diventare realtà in tempi relativamente brevi e sarebbe opportuno iniziare ad ipotizzare un adeguato framework normativo. Vi è la necessità di predisporre una legislazione ad hoc necessaria alla regolamentazione di un settore di attività quanto mai presente. Siamo sicuramente in balia di un vuoto normativo, che necessita assolutamente di essere riempito.
Lucrezia PELLEGRINI, Università Europea di Roma