L’allarme proviene dai colossi del web: l’intelligenza artificiale, così sviluppata senza regole precise, potrebbe portare all’estinzione dell’umanità.
Se non è la prima occasione che riaffiora una tale preoccupazione, adesso e per la prima volta questa affermazione viene resa pubblica in un’intervista/dichiarazione rilasciata da molti esperti, tra i quali anche esimi professori di informatica dell’Università di Montreal, oltre alle prime linee di note società come OpenAI e Google.
In uno statement pubblicato sul Center for AI Safety, esperti di intelligenza artificiale e personaggi pubblici esprimono la loro preoccupazione per il rischio di intelligenza artificiale. In questa dichiarazione si legge testualmente che “mitigare il rischio di estinzione dell’umanità da parte dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”.
Proprio OpenAI inventore di ChatGPT si espone in tal senso, e non solo finanziariamente mettendo a disposizione centomila dollari, e propone di costituire una tavola rotonda in cui discutere delle possibili misure da introdurre al fine di evitare che l’intelligenza artificiale provochi, sul lungo periodo, seri pericoli per l’intera umanità.
Parrebbe infatti che l’idea, come trapela da alcune autorevoli fonti, sarebbe quella di arrivare alla costituzione di un’Autorità sovranazionale come quella che vigila sugli armamenti nucleari. Addirittura, direte voi? Sì, diciamo noi!
L’impatto visto con la lente degli esperti è spaventevole; d’altra parte, l’intelligenza artificiale nella digital life, rappresenta, a lunga gettata, un pericolo per l’umanità paragonabile a quello di pandemie e guerre.
A questo punto, una domanda tuttavia sorge spontanea: la specie umana può davvero estinguersi per mano di una sua creazione? Alcuni sono scettici, altri lo sostengono. Il tempo darà ragione agli uni o agli altri.
Un dato è pressoché certo, mai come in questo preciso momento storico, centinaia di scienziati si dichiarano estremamente preoccupati, non solo per i rischi legati al deep fake (foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali, riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto ovvero di un corpo, e a imitare fedelmente una determinata voce) e alla perdita di posti di lavoro, ma financo per la scomparsa della nostra specie.
Da qui, la lettera aperta a firma di nomi illustri – eccezion fatta di Elon Musk, patron di Tesla e altri – con l’accorato appello che nasce, a ben guardare, dal fatto che i progressi compiuti da una #AI sempre più sofisticata, sono oggi del tutto fuori controllo. Il timore è quello di uno sviluppo sempre maggiore dei sistemi di intelligenza artificiale in assenza di regole chiare e precise; il che potrebbe portare a un uso distorto dell’intelligenza artificiale. Da qui, il panico e gli allarmismi sostanzialmente fondati nello “…sviluppare, in un futuro non troppo lontano, un’intelligenza artificiale forte o generale, capace di apprendere e capire esattamente come un essere umano”.
Senza contare un’altra considerazione di tutto rilievo: il “pensiero unico artificiale” e il conseguente appiattimento di quello plurimo umano. Insomma, uno scenario apocalittico.
Fortunatamente tutt’oggi esistono ancora strumenti atti a tutelare la conservazione della specie umana. Quindi il pericolo nell’immediato sembra scampato, ma senz’altro non è da sottovalutare. Lo stesso Altman (Presidente) con altri due dirigenti di OpenAI ha suggerito alcune strategie messe a punto proprio per gestire le potenzialità dell’intelligenza artificiale in misura responsabile. Grazie ad alcuni fattori come, ad esempio, alla cooperazione attiva tra i tanti addetti ai lavori/ricercatori di modelli linguistici (computazionali) adeguati, rafforzando il presidio di sicurezza dell’AI, specie quella più avanzata.
Chiara PONTI, IT Legal e nuove tecnologie