Da AlphaGo ai moderni modelli linguistici

La verità e l’accuratezza sono cruciali per le IA e i processi di pensiero umani giocano un ruolo fondamentale nella definizione di questi aspetti. In futuro, l’apprendimento automatico potrebbe superare gli esseri umani grazie a nuovi modelli di IA che sperimentano in modo indipendente.

Un primo esempio è AlphaGo di DeepMind, che ha segnato una svolta imparando a giocare a Go senza una guida umana o regole preimpostate. Go è un antico gioco di strategia da tavolo, originario della Cina, considerato uno dei giochi da tavolo più complessi e profondi al mondo. Utilizzando l’“autoapprendimento per rinforzo”, ha giocato miliardi di partite, imparando per tentativi ed errori. Dopo aver sconfitto il campione europeo di Go nel 2015, AlphaGo ha vinto contro il miglior giocatore umano del mondo nel 2017.

Negli scacchi, AlphaZero è stato sviluppato per superare modelli precedenti come Deep Blue, che si basavano su strategie umane. AlphaZero ha battuto il campione in carica di intelligenza artificiale Stockfish in 100 partite, vincendone 28 e pareggiando le altre.

Liberarsi dai vincoli umani

Come riportato qui, quando DeepMind si è allontanata dall’imitare le strategie umane, i suoi modelli hanno eccelso in giochi complessi come Shogi, Dota 2 e Starcraft II. Queste IA hanno sviluppato punti di forza cognitivi unici imparando attraverso la sperimentazione piuttosto che con l’imitazione umana.

Ad esempio, AlphaZero non ha mai studiato i grandi maestri o le mosse classiche. Ha invece forgiato la propria comprensione degli scacchi basandosi sulla logica delle vittorie e delle sconfitte. Ha dimostrato che un’intelligenza artificiale che si basa su strategie sviluppate autonomamente può superare qualsiasi modello addestrato esclusivamente sulle intuizioni umane.

Nuove frontiere nei modelli linguistici

L’ultimo modello di OpenAI, denominato “o1”, potrebbe seguire una traiettoria simile. Mentre i precedenti Large Language Models (LLM), come ChatGPT, sono stati addestrati utilizzando grandi quantità di testo umano, o1 incorpora una nuova caratteristica: prende tempo per generare una “catena di pensieri” prima di rispondere, consentendogli di ragionare in modo più efficace.

A differenza dei precedenti LLM, che generavano semplicemente la sequenza di parole più probabile, o1 cerca di risolvere i problemi attraverso tentativi ed errori. Durante l’addestramento, gli è stato permesso di sperimentare diverse fasi di ragionamento per trovare soluzioni efficaci, in modo simile a come AlphaGo ha affinato le sue strategie. Ciò consente a o1 di sviluppare una propria comprensione del ragionamento utile in aree in cui la precisione è essenziale.

Il passaggio al ragionamento autonomo

Man mano che le IA progrediscono nell’apprendimento per tentativi ed errori, potrebbero superare i vincoli imposti dall’uomo. Il potenziale passo successivo è rappresentato dalle IA incarnate in forme robotiche, che apprendono da interazioni fisiche anziché da simulazioni o testi. Ciò consentirebbe loro di acquisire una comprensione della realtà direttamente, indipendentemente dalla conoscenza derivata dall’uomo.

Queste IA incarnate non affronterebbero i problemi attraverso i metodi scientifici tradizionali o le categorie umane come la fisica e la chimica. Potrebbero invece sviluppare metodi e strutture proprie, esplorando il mondo fisico in modi che non possiamo prevedere.

Verso una realtà indipendente

Sebbene l’apprendimento autonomo delle IA fisiche sia ancora in fase iniziale, aziende come Tesla e Sanctuary AI stanno sviluppando robot umanoidi che un giorno potranno imparare direttamente dalle interazioni del mondo reale. A differenza dei modelli virtuali che operano ad alta velocità, le IA incarnate imparerebbero al ritmo naturale della realtà, limitate dalle risorse disponibili ma potenzialmente in grado di cooperare attraverso l’apprendimento condiviso.

Il modello o1 di OpenAI, benché basato su un testo, allude al futuro dell’IA: un punto in cui questi sistemi potrebbero sviluppare verità e strutture indipendenti per comprendere l’universo al di là dei limiti umani.

Lo sviluppo di LLM in grado di ragionare da sole e di apprendere per tentativi ed errori indica un’entusiasmante strada per rapide scoperte in diversi campi. Consentire alle IA di pensare in modi che potremmo non comprendere potrebbe portare a scoperte e soluzioni che vanno oltre l’intuizione umana. Ma questo progresso richiede un cambiamento fondamentale: dobbiamo avere più fiducia nell’IA e allo stesso tempo essere cauti nei confronti del suo potenziale in termini di ripercussioni inaspettate.

Esiste il rischio reale di manipolazione o di affidarsi ai risultati dell’IA senza comprenderne appieno la logica di fondo, perché questi modelli creano quadri e informazioni che possono non essere colti facilmente. Per garantire che l’IA funzioni come un vero amico nell’espansione della conoscenza umana piuttosto che come una forza enigmatica e forse ingestibile, sarà fondamentale trovare un equilibrio tra fiducia e stretta supervisione.