L’ Intelligenza Artificiale nasce con la domanda di Turing «può una macchina pensare?». Malgrado le apparenze questa domanda non ha nulla di tecnico, ed è anzi un questionamento filosofico della forma più pura. E questo malgrado la assoluta indifferenza, per non dire disprezzo, che Turing nutriva nei confronti della filosofia, come molta cultura anglosassone che ragiona piuttosto in termini di sociologia, di psicologia e di neuroscienza.
Complice l’enorme interesse economico in gioco, la domanda iniziale si è però rapidamente mutata nell’ingegneristico quesito: «può il pensiero essere meccanizzato?». In questo modo l’IA è stata svuotata della sua carica filosofica e ridotta ad ancella tecnologica delle scienze cognitive, come San Tommaso riduceva la filosofia ad «ancella theologiae». Di qui la confusione sempre maggiore tra Intelligenza Artificiale e Machine Learning, termine che nasce insieme all’IA, ma che viaggia ormai in direzione diversa. Alla domanda iniziale occorre dunque tornare, per superare marketing e fantascienza, trovare l’umano dell’IA e leggerla come parte del progresso dello Spirito. Iniziamo allora con alcune definizioni e un po’ di storia delle idee sull’argomento.
Il termine Machine Learning nasce sotto la piuma di A.L. Samuel (partecipante alla celebre conferenza del 1956 dove fu coniato il termine Intelligenza Artificiale): «Gli studi qui riportati trattano della programmazione di un computer digitale per farlo agire in un modo che, se intrapreso da esseri umani o animali, verrebbe descritto come implicante il processo di apprendimento».
Fin dall’inizio dunque il Machine Learning guarda non solo all’uomo, ma anche all’animale. L’apprendimento viene svincolato dal sapere concettuale o dalle capacità astrattive dell’uomo, il pensare umano in quanto tale non è più un unicum, la distanza dall’Intelligenza Artificiale in quanto questionamento filosofico aumenta. La definizione canonica dei manuali di ML accentua nel tempo questa tendenza: «Di un programma informatico diciamo che apprende dall’esperienza E rispetto ad una classe di attività T e con una misura delle prestazioni P se le sue prestazioni nelle attività in T, misurate da P, migliorano con l’esperienza E».
Qui è abbandonato ogni riferimento agli esseri umani, agli animali, o financo all’intelligenza. Resta una definizione formale, dove l’apprendimento è funzione del tipo di esperienza e il risultato si misura come performance. Il termine di «esperienza» non deve qui ingannare, non ci si riferisce assolutamente all’esperire umano fatto di sentimenti, sensazioni, percezioni, essere-nel-mondo heideggeriano o simili.
Citiamo dallo stesso manuale: «Ad esempio, un database che consente agli utenti di aggiornare le serie di dati si adatterebbe alla nostra definizione di un sistema di apprendimento: migliora le sue prestazioni nel rispondere alle domande del database in base all’esperienza acquisita con l’aggiornamento del database». Esperire significa dunque semplicemente accedere a nuovi set di dati, che infatti diventano essenziali per per l’apprendimento dell’algoritmo e che tutti conosciamo come Big Data.
Rimandiamo alla seconda parte del nostro articolo per una analisi approfondita di questo aspetto. Questo è il Machine Learning oggi: potenza di calcolo, enormi quantità di dati, ma nessun «intelligere». Le sue discipline parallele o sorelle sono la Computer Science, la Statistica, la Psicologia, le Neuroscienze, più alla lontana la Biologia o l’Economia, ma niente IA.
Per questo i teorici del settore insistono che «l’intelligenza non è la coscienza», o che IA sta ormai per «agere sine intellectu». Ed ecco spiegata la miriade di interrogativi «etici» sull’Intelligenza Artificiale che non approderanno a nulla poiché sprovvisti di quell’elemento etico essenziale che è appunto la coscienza (la Gewissen, non la Bewusstsein, come genialmente le distingue la lingua tedesca).
Giovanni LANDI
Autore del libro «Intelligenza Artificiale come Filosofia»
Expert dell’Istituto Europia