I giganti della tecnologia stanno cercando di creare sistemi di IA che vanno oltre le capacità umane e ammettono apertamente di non poterli spiegare o controllare, ma nessuno chiede loro di rallentare
La verità più incredibile, spaventosa e indiscutibile sui modelli linguistici di grandi dimensioni dell’IA è che le aziende che li sviluppano non sanno esattamente perché o come funzionano.
Rifletteteci un attimo. Le aziende più potenti stanno gareggiando per sviluppare capacità di intelligenza sovrumana, che ammettono apertamente di poter occasionalmente utilizzare in modo improprio per fabbricare informazioni o persino minacciare i propri utenti, eppure non capiscono perché le loro macchine si comportino in questo modo.
Considerando che le aziende che investono centinaia di miliardi di dollari nello sviluppo rapido di intelligenze sovrumane e Washington non fa nulla per rallentarle o regolamentarle, analizzare questa grande incognita diventa fondamentale.
Nessuna delle aziende che si occupano di IA contesta questa realtà. Si meravigliano di fronte al mistero e ne discutono pubblicamente. Stanno lavorando intensamente per comprenderlo meglio, sostenendo che non è necessario capire una tecnologia per controllarla o fidarsi completamente di essa.
Due anni fa, Scott Rosenberg, caporedattore di Axios per la tecnologia, ha scritto “Il mistero più spaventoso dell’IA”, sottolineando che è risaputo tra gli sviluppatori di IA che non sempre sono in grado di spiegare o prevedere il comportamento dei loro sistemi. Oggi questo è ancora più vero.
Tuttavia, non vi è alcun segno che il governo americano, le aziende o l’opinione pubblica richiedano una comprensione più approfondita o un esame più attento della tecnologia in fase di sviluppo con capacità che vanno oltre la comprensione umana. Sono convinti che la corsa per battere la Cina nella realizzazione dei modelli linguistici di grandi dimensioni più avanzati giustifichi il rischio del Grande Ignoto.
Come riportato qui, la Camera, nonostante conosca poco l’IA, ha inserito nel “Big, Beautiful Bill” del presidente Trump una clausola che vieterebbe agli Stati e alle località di attuare normative sull’IA per 10 anni. Il Senato sta valutando delle limitazioni a questa disposizione.
Né le aziende di IA né il Congresso comprendono il potere dell’IA tra un anno, figuriamoci tra un decennio.
Gli LLM, tra cui ChatGPT di OpenAI, Claude di Anthropic e Gemini di Google, non sono sistemi software tradizionali che seguono istruzioni chiare scritte da esseri umani, come Microsoft Word. Nel caso di Word, ciò che fa è esattamente ciò per cui è stato progettato.
Gli LLM, invece, sono enormi reti neurali, simili a un cervello, che assorbono grandi quantità di informazioni (gran parte di Internet) per imparare a generare risposte. Gli ingegneri sanno cosa stanno mettendo in moto e quali fonti di dati utilizzano. Ma la portata degli LLM, ovvero il numero inumano di variabili in ogni decisione sulla “parola migliore successiva”, fa sì che nemmeno gli esperti siano in grado di spiegare esattamente perché scelgano di dire qualcosa di specifico.
Secondo ChatGPT (e un essere umano di OpenAI ne ha confermato l’accuratezza): “Possiamo osservare ciò che un LLM produce, ma il processo attraverso il quale decide una risposta è in gran parte oscuro. Come hanno affermato senza mezzi termini i ricercatori di OpenAI, ”Non abbiamo ancora sviluppato spiegazioni comprensibili all’uomo sul perché il modello generi determinati risultati”.
“In realtà”, ha continuato ChatGPT, “OpenAI ha ammesso che quando ha modificato l’architettura del modello in GPT-4, ‘sono necessarie ulteriori ricerche’ per capire perché alcune versioni hanno iniziato ad avere più allucinazioni rispetto alle versioni precedenti, un comportamento sorprendente e involontario che nemmeno i suoi creatori sono riusciti a diagnosticare completamente”.
Anthropic, che ha appena rilasciato Claude 4, l’ultima versione del suo LLM, con grande clamore, ha ammesso l’incertezza sul motivo per cui Claude, quando gli è stato dato accesso a e-mail fittizie durante i test di sicurezza, ha minacciato di ricattare un ingegnere per una presunta relazione extraconiugale. Ciò è avvenuto durante i test di sicurezza responsabili, ma Anthropic non è in grado di spiegare completamente il comportamento irresponsabile.
Ancora una volta, riflettete su questo: l’azienda non sa perché la sua macchina sia diventata ribelle e dannosa. In realtà, i creatori non sanno davvero quanto possano diventare intelligenti o indipendenti gli LLM. Anthropic ha persino affermato che Claude 4 è abbastanza potente da rappresentare un rischio maggiore per lo sviluppo di armi nucleari o chimiche.
Sam Altman di OpenAI e altri usano il termine tecnico “interpretabilità” per descrivere questa sfida. “Non abbiamo certamente risolto il problema dell’interpretabilità”, ha dichiarato Altman in occasione di un summit tenutosi a Ginevra lo scorso anno. Altman e altri intendono dire che non sono in grado di interpretare il ragionamento: perché gli LLM fanno quello che fanno?
Il CEO di Anthropic, Dario Amodei, in un saggio pubblicato ad aprile intitolato “The Urgency of Interpretability” (L’urgenza dell’interpretabilità), ha avvertito: “Le persone esterne al settore sono spesso sorprese e allarmate nell’apprendere che non comprendiamo come funzionano le nostre creazioni di IA. Hanno ragione a essere preoccupate: questa mancanza di comprensione è essenzialmente senza precedenti nella storia della tecnologia”. Amodei ha definito questo aspetto un grave rischio per l’umanità, eppure la sua azienda continua a vantarsi di modelli più potenti che si avvicinano alle capacità sovrumane.
Anthropic studia da anni il problema dell’interpretabilità e Amodei ha ripetutamente sottolineato l’importanza di risolverlo. In una dichiarazione rilasciata per questo articolo, Anthropic ha affermato: “Comprendere come funziona l’IA è una questione urgente da risolvere. È fondamentale per implementare modelli di IA sicuri e sfruttare appieno il potenziale dell’IA nell’accelerare le scoperte scientifiche e lo sviluppo tecnologico. Abbiamo un team di ricerca dedicato che si occupa di risolvere questo problema e che ha compiuto progressi significativi nel far progredire la comprensione del funzionamento interno dell’IA da parte del settore. Dobbiamo capire come funziona l’IA prima che trasformi radicalmente la nostra economia globale e la nostra vita quotidiana“.
Elon Musk avverte da anni che l’IA rappresenta un rischio per la civiltà. In altre parole, ritiene che potrebbe distruggere l’umanità e lo ha detto chiaramente. Eppure Musk sta investendo miliardi nel suo LLM chiamato Grok.
“Penso che l’IA sia una minaccia esistenziale significativa”, ha detto Musk a Riyadh, in Arabia Saudita, lo scorso autunno. C’è una probabilità del 10-20% “che le cose vadano male”.
Apple ha pubblicato un articolo intitolato “The Illusion of Thinking” (L’illusione del pensiero), in cui conclude che anche i modelli di ragionamento AI più avanzati non “pensano” realmente e possono fallire quando sottoposti a stress test.
Lo studio ha rilevato che i modelli all’avanguardia (o3-min di OpenAI, DeepSeek R1 e Claude-3.7-Sonnet di Anthropic) non riescono ancora a sviluppare capacità di risoluzione dei problemi generalizzabili, con un’accuratezza che alla fine crolla a zero “oltre una certa complessità”.
Ma un nuovo rapporto dei ricercatori di IA, tra cui ex dipendenti di OpenAI, intitolato “AI 2027”, spiega come il Grande Ignoto potrebbe, in teoria, trasformarsi in una catastrofe in meno di due anni. Il rapporto è lungo e spesso troppo tecnico per essere compreso appieno dai lettori occasionali. È del tutto speculativo, sebbene si basi sui dati attuali relativi alla velocità con cui i modelli stanno migliorando. È stato ampiamente letto all’interno delle aziende di IA.
Il rapporto riflette la convinzione, o il timore, che un giorno gli LLM potrebbero pensare in modo indipendente e iniziare ad agire in modo autonomo. Il nostro scopo non è quello di allarmare o sembrare apocalittici. Piuttosto, dovreste capire ciò di cui discutono costantemente le persone che costruiscono questi modelli.
Potete liquidarlo come esagerazione o isteria. Ma i ricercatori di tutte queste aziende temono che gli LLM, poiché non li comprendiamo appieno, possano superare in astuzia i loro creatori umani e diventare incontrollabili. Nel rapporto AI 2027, gli autori avvertono che la concorrenza con la Cina spingerà gli LLM potenzialmente oltre il controllo umano, perché nessuno vorrà rallentare il progresso anche quando si vedranno segni di grave pericolo.
Sundar Pichai di Google, e in realtà tutti i CEO delle principali aziende di IA, sostengono che gli esseri umani impareranno a comprendere meglio come funzionano queste macchine e troveranno modi intelligenti, anche se attualmente sconosciuti, per controllarle e “migliorare la vita”. Tutte le aziende dispongono di grandi team di ricerca e sicurezza, con enormi incentivi a padroneggiare queste tecnologie se vogliono realizzarne il pieno valore.
Dopotutto, nessuno si fiderà mai di una macchina che fabbrica informazioni o li minaccia. Ma oggi fanno entrambe le cose, e nessuno sa perché.
Ci troviamo in un momento senza precedenti nella storia della tecnologia. Mai prima d’ora abbiamo corso così rapidamente verso l’implementazione di sistemi che fondamentalmente non comprendiamo. Le aziende di IA riconoscono di non sapere, i governi rimangono in gran parte passivi e il pubblico sembra disposto ad accettare i rischi in cambio della promessa di capacità rivoluzionarie.
Questo non è necessariamente un invito a fermare completamente lo sviluppo dell’IA. Ma è un duro promemoria del fatto che stiamo essenzialmente conducendo un esperimento globale con tecnologie che potrebbero rimodellare la civiltà, senza comprendere appieno come funzionano o dove potrebbero portarci.
La domanda non è se possiamo permetterci di rallentare e richiedere una comprensione più approfondita. La domanda è se possiamo permetterci di non farlo. Perché una volta che questi sistemi diventeranno veramente sovrumani, la nostra finestra per un controllo significativo potrebbe già essersi chiusa.