L’ultima AI di OpenAI potrebbe spaventare il mondo

Il motivo per cui l’amministratore delegato di OpenAI Sam Altman è stato licenziato e poi reintegrato nell’azienda meno di una settimana dopo rimane un mistero; il consiglio di amministrazione dell’azienda no-profit ha fatto uno spettacolare dietrofront, respingendo una marea di speculazioni.

Tuttavia, le speculazioni sono salite in cima alle voci di corridoio. La possibilità che OpenAI stesse segretamente sviluppando un’intelligenza artificiale altamente sofisticata che avrebbe potuto scatenare un attacco di panico e provocare un’agitazione è tra le più interessanti.

Come riportato qui, per “giovare a tutta l’umanità”, secondo le parole di Altman, OpenAI ha da tempo posto come suo scopo primario la creazione di un’intelligenza artificiale generale (AGI), definita approssimativamente come un algoritmo in grado di eseguire lavori complicati al pari o addirittura meglio degli esseri umani.

È ancora in discussione se la società si stia realmente avvicinando a questo obiettivo. Inoltre, è sempre stato piuttosto difficile interpretare i due messaggi che l’azienda ha rilasciato a causa della sua storia di estrema segretezza sulle sue ricerche.

Tuttavia, un nuovo affascinante sviluppo della vicenda solleva la possibilità che OpenAI stesse per compiere un progresso significativo e che questo fosse collegato allo sconvolgimento.

Secondo quanto riportato da Reuters e The Information, sembra che alcuni dirigenti di OpenAI fossero allarmati da una nuova e potente intelligenza artificiale che l’azienda sta sviluppando e che ha chiamato Q*, o “Q star”. Questo nuovo sistema, che si suppone sia in grado di risolvere i problemi di matematica tipici delle scuole elementari, sarebbe stato considerato da alcuni come un passo importante verso l’obiettivo dell’azienda di produrre un’intelligenza artificiale generale (AGI).

Secondo quanto riportato da Reuters, in un messaggio inviato ai membri dello staff, Mira Murati – ex membro del consiglio di amministrazione non profit di OpenAI che ha ricoperto per breve tempo il ruolo di amministratore delegato dopo il licenziamento di Altman – ha ammesso l’esistenza di questo nuovo modello.

Secondo persone vicine a Reuters, Q* è stato solo uno dei fattori che hanno contribuito al licenziamento di Altman e ha sollevato dubbi sulla commercializzazione di una tecnologia non ancora del tutto compresa.

Anche se la padronanza della matematica in età scolare non sembra un grande risultato, gli esperti la considerano da tempo un punto di riferimento importante. Un algoritmo di intelligenza artificiale in grado di risolvere problemi matematici dovrebbe “pianificare” in anticipo, invece di limitarsi ad anticipare la parola successiva in una frase, come fanno i sistemi GPT dell’azienda. È come mettere insieme degli indizi per arrivare alla soluzione.

“Una delle sfide principali per migliorare l’affidabilità di LLM è quella di sostituire la previsione autoregressiva dei token con la pianificazione”, ha spiegato in un tweet Yann LeCun, “padrino dell’IA” e capo scienziato dell’IA di Meta. “Praticamente tutti i laboratori più importanti (FAIR, DeepMind, OpenAI, ecc.) ci stanno lavorando e alcuni hanno già pubblicato idee e risultati”.

“È probabile che Q* sia un tentativo di pianificazione di OpenAI”, ha aggiunto.

“Se ha la capacità di ragionare logicamente e di ragionare su concetti astratti, cosa che al momento è davvero difficile, si tratta di un salto di qualità notevole”, ha dichiarato Charles Higgins, cofondatore della startup di formazione AI Tromero.

“La matematica consiste nel ragionare simbolicamente, dicendo, ad esempio, ‘Se X è più grande di Y e Y è più grande di Z, allora X è più grande di Z'”, ha aggiunto. “I modelli linguistici tradizionalmente fanno molta fatica in questo senso, perché non ragionano logicamente, ma hanno solo quelle che sono effettivamente delle intuizioni”.

“Nel caso della matematica, sappiamo che le IA esistenti hanno dimostrato di essere in grado di fare matematica a livello universitario, ma di avere difficoltà con qualsiasi cosa più avanzata”, ha dichiarato Andrew Rogoyski, direttore del Surrey Institute for People-Centered AI. “Tuttavia, se un’IA è in grado di risolvere problemi nuovi e inediti, e non solo di rigurgitare o rimodellare le conoscenze esistenti, allora sarebbe una cosa importante, anche se la matematica fosse relativamente semplice”.

Ma Q* è davvero una scoperta che potrebbe mettere in pericolo la vita come la conosciamo? Gli specialisti non ne sono convinti.

“Non credo che ci porti immediatamente all’AGI o a situazioni spaventose”, ha dichiarato al MIT Technology Review Katie Collins, ricercatrice presso l’Università di Cambridge, specializzata in matematica e IA.

“Risolvere problemi matematici di scuola elementare è molto, molto diverso dallo spingere i confini della matematica al livello di ciò che può fare un vincitore della medaglia Fields”, ha aggiunto, riferendosi a un premio internazionale di matematica.

“Penso che sia simbolicamente molto importante”, ha dichiarato Sophia Kalanovska, cofondatrice di Tromero e dottoranda. “A livello pratico, non credo che finirà il mondo”.

In parole povere, l’algoritmo di OpenAI, se esiste e se i suoi risultati sono affidabili, potrebbe segnare, pur con molte limitazioni, un progresso significativo negli sforzi dell’azienda per raggiungere un’intelligenza artificiale generale (AGI).

È stato questo l’unico fattore che ha causato il licenziamento di Altman? Oggi ci sono molte prove che suggeriscono che dietro le quinte c’era molto di più, compresi i conflitti interni sul futuro dell’azienda. I ricercatori erano ottimisti sulle prospettive del modello attuale, anche se era in grado di risolvere solo problemi matematici di livello elementare.

Sebbene la causa esatta della crisi di leadership di OpenAI sia sconosciuta, i progressi dell’intelligenza artificiale generale sono probabilmente un fattore determinante. A differenza dei modelli reattivi di oggi, sistemi come l’ipotetico Q* si avvicinano a un’intelligenza artificiale che discute in modo astratto e fa progetti. Tuttavia, le IA contemporanee sono ben lontane dall’eguagliare la cognizione umana, con capacità relativamente limitate.

Tali algoritmi sollevano la possibilità che alla fine si sviluppino in agenti intelligenti incontrollabili che rappresentano una minaccia per l’umanità. Non è chiaro se la ricerca OpenAI abbia raggiunto un punto di svolta. Tuttavia, l’episodio rende concreto il passaggio a un’intelligenza artificiale dannosa, ipotizzato da tempo, e sottolinea le crescenti preoccupazioni legate al progressivo aumento delle capacità dell’IA. La tecnologia deve progredire insieme alla governance, al monitoraggio e alla conoscenza pubblica per garantire che il maggior beneficio della società continui a essere la forza trainante.