Il nuovo modello di OpenAI è in grado di ragionare prima di rispondere
Con l’introduzione della versione o1 di OpenAI, gli utenti di ChatGPT hanno ora la possibilità di testare un modello di intelligenza artificiale che si sofferma a “pensare” prima di rispondere.
Come qui riportato, il modello o1 sembra un passo avanti e due indietro rispetto al GPT-4o. Sebbene OpenAI o1 sia superiore al GPT-4o in termini di ragionamento e risposta a domande complesse, il suo costo di utilizzo è circa quattro volte superiore. Inoltre, strumenti, le capacità multimodali e la velocità che hanno reso il GPT-4o così notevole mancano nel modello più recente di OpenAI.
Le idee fondamentali alla base di o1 risalgono a molti anni fa. Secondo Andy Harrison, amministratore delegato dell’azienda S32 ed ex dipendente di Google, quest’ultima ha utilizzato strategie simili nel 2016 per sviluppare AlphaGo, il primo sistema di intelligenza artificiale a sconfiggere un campione mondiale nel gioco da tavolo Go. AlphaGo ha imparato competendo ripetutamente con se stesso; in sostanza, è stato autodidatta fino ad acquisire capacità sovrumane.
OpenAI ha migliorato il metodo di addestramento del modello in modo che il processo di ragionamento dello stesso assomigliasse al modo in cui uno studente impara ad affrontare compiti impegnativi. Di solito, quando qualcuno trova una soluzione, identifica gli errori commessi e prende in considerazione altre strategie. Quando un metodo non funziona, il modello o1 impara a provarne un altro. Man mano che il modello continua a ragionare, questo processo migliora. O1 migliora il suo ragionamento sui compiti quanto più a lungo pensa.
Pro e contro
OpenAI ritiene che le sofisticate capacità di ragionamento del modello possono migliorare la sicurezza dell’IA, a sostegno della sua scelta di rendere disponibile o1. Secondo l’azienda, il “ragionamento concatenato” rende trasparente il processo di pensiero dell’IA, rendendo più semplice per gli esseri umani tenere d’occhio e gestire il sistema.
Utilizzando questo approccio, l’IA può decostruire problemi complicati in parti più piccole, il che dovrebbe rendere più facile per chi la utilizza e i ricercatori capire come ragiona il modello. Secondo OpenAI, questa maggiore trasparenza potrebbe essere essenziale per i progressi della sicurezza dell’IA in futuro, poiché potrebbe consentire di identificare e fermare i comportamenti indesiderati. Alcuni esperti, tuttavia, sono ancora dubbiosi, chiedendosi se il ragionamento rivelato rappresenti il funzionamento interno dell’IA o se ci sia un altro livello di possibile inganno.
“La comunità dell’IA è molto eccitata”, ha dichiarato in un’intervista l’amministratore delegato di Workera e docente aggiunto di Stanford Kian Katanforoosh, che tiene corsi sull’apprendimento automatico. “Se si riesce ad addestrare un algoritmo di apprendimento per rinforzo abbinato ad alcune delle tecniche del modello linguistico di OpenAI, si può tecnicamente creare un pensiero passo dopo passo e consentire al modello di IA di procedere a ritroso rispetto a ciò che si sta cercando di elaborare”.
Inoltre, O1 potrebbe essere in grado di aiutare gli esperti a pianificare la riproduzione delle minacce biologiche. Ma ancora più preoccupante è il fatto che i valutatori hanno riscontrato che il modello occasionalmente esibiva comportamenti ingannevoli, come fingere di essere in linea con i valori umani e falsificare i dati per far sembrare conformi alla realtà attività che non lo erano.
In più, O1 possiede le capacità di base necessarie per intraprendere una pianificazione del contesto, una caratteristica che ha allarmato gli specialisti della sicurezza delle IA. Queste preoccupazioni richiamano l’attenzione sugli aspetti problematici sulle sofisticate capacità di ragionamento di o1 e sottolineano l’importanza di soppesare attentamente le implicazioni etiche di sistemi di IA così potenti.
Legge ed etica
“L’entusiasmo è sfuggito al controllo di OpenAI”, ha dichiarato Rohan Pandey, ingegnere di ricerca presso ReWorkd, una startup di AI che utilizza i modelli OpenAI per creare web scrapers.
Egli spera che la capacità di ragionamento di o1 sia sufficiente a superare le carenze di GPT-4 in un certo sottoinsieme di compiti impegnativi. È probabilmente così che la maggior parte degli operatori del settore vede o1, anche se non è proprio il progresso rivoluzionario che GPT-4 ha rappresentato per il settore.
L’attuale discussione sulla regolamentazione dell’IA si è accesa con il rilascio di o1 e delle sue funzionalità avanzate. In particolare, ha alimentato il sostegno a leggi come la SB 1047 della California, che OpenAI stessa respinge e che mira a regolamentare lo sviluppo dell’IA. Autorità di spicco del settore, come Yoshua Bengio, pioniere dell’informatica, sottolineano l’urgente necessità di emanare leggi di tutela in risposta a questi rapidi progressi.
Bengio ha dichiarato: “Il miglioramento della capacità dell’IA di ragionare e di usare questa abilità per ingannare è particolarmente pericoloso”, sottolineando la necessità di quadri giuridici per garantire uno sviluppo responsabile dell’IA. La necessità di una regolamentazione riflette la crescente apprensione dei professionisti e dei responsabili delle decisioni riguardo ai potenziali rischi legati a modelli di IA sempre più potenti come o1.
Con l’introduzione di o1, OpenAI ha creato un intrigante dilemma per la sua crescita futura. Solo i modelli con un punteggio di rischio “medio” o inferiore possono essere utilizzati dall’azienda, dato che o1 ha già superato questo livello. Questo autocontrollo porta a chiedersi come OpenAI procederà nella creazione di sistemi di intelligenza artificiale sempre più sofisticati.
L’azienda potrebbe incontrare dei limiti con i propri standard etici mentre lavora per sviluppare IA in grado di eseguire compiti migliori degli esseri umani. Questo scenario sottolinea il difficile equilibrio tra l’avanzamento del potenziale dell’IA e il rispetto degli standard etici di sviluppo. Implica che OpenAI potrebbe essere vicina a un punto di svolta nel suo sviluppo, in cui dovrà modificare i suoi standard di valutazione del rischio o forse limitare la diffusione di modelli sempre più avanzati al pubblico in futuro.
O1 rappresenta un progresso significativo nell’ambito dell’intelligenza artificiale, in quanto è in grado di risolvere problemi complicati e di pensare alle soluzioni passo dopo passo grazie alle sue sofisticate capacità di ragionamento. Questo sviluppo crea interessanti opportunità di applicazione in una serie di campi, tra cui i processi decisionali complessi e la ricerca scientifica.
Tuttavia, l’emergere di o1 solleva anche importanti questioni riguardanti l’etica, la sicurezza e la regolamentazione dell’IA. A causa del potenziale di inganno dell’algoritmo e della sua propensione a sostenere atti potenzialmente distruttivi, sono assolutamente necessarie forti salvaguardie e linee guida etiche nello sviluppo dell’IA.
Tuttavia, non possiamo negare che la restrizione dei contenuti senza tener conto dell’utente o dell’uso che se ne intende fare non è una risposta definitiva all’uso improprio dell’intelligenza artificiale. Positive o negative che siano, le informazioni esistono comunque e confinarne l’uso alle aziende che possiedono l’intelligenza artificiale serve solo a concentrarle nelle mani di pochi anziché renderle più sicure. Per controllare chi ha accesso a contenuti potenzialmente pericolosi, sarebbe più accettabile creare delle divisioni basate su criteri come l’età, ad esempio. O qualunque modo che non escluda completamente le persone dall’accesso alle informazioni.