Sfruttare opportunità e incertezza

In passato, le epoche di rapido sviluppo e cambiamento hanno portato a periodi di enorme incertezza. Nel suo libro del 1977 L’età dell’incertezza, l’economista di Harvard John Kenneth Galbraith descriveva le conquiste dell’economia di mercato, ma prevedeva anche un periodo di instabilità, inefficienza e disuguaglianza sociale.

Oggi, mentre gestiamo le ondate di trasformazione dell’IA, sta per iniziare una nuova era caratterizzata da analoghe incertezze. Tuttavia, questa volta la tecnologia, in particolare l’ascesa e lo sviluppo dell’IA, è la forza trainante piuttosto che l’economia.

La crescente presenza dell’IA nelle nostre vite

Gli effetti dell’IA sono ormai sempre più evidenti nella vita di tutti i giorni. La tecnologia sta iniziando a permeare le nostre vite, dalle auto a guida autonoma, ai chatbot in grado di impersonare i propri cari scomparsi e agli assistenti IA che ci aiutano sul lavoro.

Secondo questo articolo, con l’imminente tsunami dell’IA, essa sarà presto molto più comune. Ethan Mollick, professore alla Wharton School, ha recentemente scritto dei risultati di uno studio sul futuro del lavoro professionale. Due team di consulenti del Boston Consulting Group sono stati al centro dell’esperimento. A ciascun gruppo sono stati distribuiti diversi compiti comuni. L’impiego dell’IA attualmente accessibile per supportare le attività di un gruppo ha avuto successo, ma non per l’altro.

Mollick ha riferito che: “I consulenti che hanno utilizzato l’IA hanno portato a termine in media il 12,2% di compiti in più, hanno completato i compiti il 25,1% più rapidamente e hanno prodotto risultati di qualità superiore del 40% rispetto a quelli che non l’hanno fatto”.

Anche se ora sembra improbabile, è ancora possibile che i problemi legati ai modelli linguistici di grandi dimensioni (LLM), come i bias e la confabulazione, facciano scomparire questa ondata. Sebbene la tecnologia stia già mostrando il suo potenziale dirompente, ci vorrà ancora del tempo prima di poter sentire la forza dello tsunami. Ecco un’anteprima di ciò che accadrà.

La prossima generazione di modelli di IA

La prossima generazione di LLM, che supererà l’attuale generazione di GPT-4 (OpenAI), PaLM 2 (Google), LLaMA (Meta) e Claude 2 (Anthropic), sarà più avanzata e generalizzata. È possibile che anche la nuova start-up di Elon Musk, xAI, entri in un modello nuovo e potenzialmente molto forte. Per questi modelli, il pensiero, il buon senso e la capacità di giudizio continuano a rappresentare ostacoli importanti. Tuttavia, possiamo prevedere progressi in ognuna di queste aree.

Il Wall Street Journal ha riportato che Meta sta sviluppando un dispositivo per la generazione successiva che sarà efficace almeno quanto il GPT-4. La ricerca prevede che ciò avverrà intorno al 2024. Anche se OpenAI non ha rivelato i suoi piani futuri, è logico pensare che stia sviluppando anche la sua prossima generazione.

Secondo le informazioni attualmente disponibili, “Gemini” del team di Google Brain e DeepMind AI è il nuovo modello più significativo. Gemini potrebbe essere molto lontano dalla tecnologia attuale. Sundar Pichai, il CEO di Alphabet, ha dichiarato nel maggio dello scorso anno che l’addestramento del modello era già iniziato.

“Anche se è ancora presto, stiamo già vedendo impressionanti capacità multimodali non viste nei modelli precedenti”, ha dichiarato Pichai in un blog dell’epoca.

Come base per applicazioni basate sia sul testo che sulle immagini, multimodale significa che è in grado di elaborare e comprendere due forme di dati in ingresso (testo e immagini). Potrebbero esserci altri tratti e comportamenti emergenti o inaspettati come risultato del riferimento a capacità non evidenti nei modelli precedenti. La capacità di scrivere codice informatico è un esempio di capacità emergente della generazione attuale, perché non era stata prevista.

Secondo alcune voci, Google avrebbe concesso l’accesso anticipato a Gemini a poche aziende selezionate. SemiAnalysis, una rinomata società di ricerca sui semiconduttori, potrebbe essere una di queste. Gemini potrebbe essere da 5 a 20 volte più avanzato degli attuali dispositivi GPT-4, secondo un nuovo articolo dell’azienda.

Il design di Gemini sarà probabilmente basato su Gato di DeepMind, presentato nel 2022. Il modello di trasformatore di deep learning [Gato] è descritto come un “agente generalista” e si propone di eseguire 604 compiti distinti e per lo più banali con modalità, osservazioni e specifiche di azione variabili. È stato definito il coltellino svizzero dei modelli di IA. È chiaramente molto più generale di altri sistemi di IA sviluppati finora e in questo senso sembra essere un passo avanti verso l’AGI [intelligenza artificiale generale]”.

L’IA classica, spesso definita IA ristretta, è creata per svolgere un singolo compito o un gruppo di compiti correlati. Per risolvere problemi e compiere scelte, si avvale di regole e algoritmi prestabiliti. I software per il riconoscimento vocale, il riconoscimento delle immagini e i motori di raccomandazione sono alcuni esempi di IA classica.

L’IA generale, invece, talvolta definita IA forte o intelligenza artificiale generale (AGI), è creata per svolgere qualsiasi lavoro intellettuale di cui è capace un essere umano. Ha la capacità di pensare, imparare e comprendere idee sofisticate. Un intelletto di livello umano sarebbe necessario per l’IA generale, che avrebbe anche una coscienza autonoma e la capacità di acquisire conoscenze, risolvere problemi e fare piani per il futuro. L’IA generale è attualmente un’idea teorica e si trova solo nelle prime fasi della ricerca.

Intelligenza Artificiale Generale (AGI)

Secondo Microsoft, GPT-4 è già in grado di “risolvere compiti nuovi e difficili che spaziano dalla matematica alla codifica, dalla visione alla medicina, dalla legge alla psicologia e altro ancora, senza bisogno di particolari istruzioni”.

Gemini potrebbe rappresentare un passo significativo verso l’intelligenza artificiale, superando tutti i modelli attuali. Si prevede che Gemini sarà distribuito a diversi livelli di capacità del modello.

Gemini sarà sicuramente spettacolare, ma sono previste varianti ancora più grandi e avanzate. In un’intervista a The Economist, Mustafa Suleyman, CEO e co-fondatore di Inflection AI e co-fondatore di DeepMind, ha fatto la seguente previsione:

“nei prossimi cinque anni, le società di modelli di frontiera – quelle di noi che sono all’avanguardia e che addestrano i modelli di IA più grandi – addestreranno modelli mille volte più grandi di quelli che si vedono oggi in GPT-4”.

Con il potenziale sia di enormi vantaggi che di maggiori rischi, questi modelli potrebbero avere applicazioni e un impatto sulla nostra vita quotidiana che non hanno eguali. David Chalmers, professore di filosofia e scienze neurologiche alla New York University, ha dichiarato a Vanity Fair: “I lati positivi sono enormi: forse questi sistemi troveranno cure per le malattie e soluzioni a problemi come la povertà e il cambiamento climatico, e questi sono lati positivi enormi”.

L’articolo esplora anche i pericoli e include stime della probabilità di risultati terribili, come l’estinzione dell’umanità, che vanno dall’1% al 50%.

Potrebbe essere la fine di un’era dominata dagli esseri umani?

Lo storico Yuval Noah Harari ha dichiarato in un’intervista a The Economist che i prossimi sviluppi della tecnologia AI non segneranno la fine della storia, ma piuttosto “la fine della storia dominata dall’uomo. La storia continuerà, con qualcun altro al comando. La vedo più come un’invasione aliena”.

Suleyman ha risposto dicendo che gli strumenti di intelligenza artificiale non avranno un’agenzia e saranno quindi limitati a ciò che gli esseri umani daranno loro l’autorità di realizzare. La risposta successiva di Harari è stata che questa IA futura potrebbe essere “più intelligente di noi”. Come si fa a impedire a qualcosa di più intelligente di noi di sviluppare un’agenzia?”. Un’IA dotata di agenzia potrebbe assumere comportamenti che non sono coerenti con i desideri e i valori umani.

Questi modelli avanzati prefigurano lo sviluppo dell’intelligenza artificiale generale (AGI) e un tempo in cui l’IA sarà ancora più potente, integrata e necessaria per la vita quotidiana. Ci sono molte ragioni per essere ottimisti, ma le richieste di controllo e regolamentazione sono rese ancora più forti da questi nuovi sviluppi previsti.

Il dilemma dei regolamenti

Anche gli amministratori delegati delle aziende che producono modelli di frontiera concordano sulla necessità di una regolamentazione.

Il senatore Charles Schumer ha organizzato la sessione e in seguito ha parlato delle difficoltà nel creare normative adeguate. Ha sottolineato quanto l’IA sia tecnicamente impegnativa, come sia in continua evoluzione e come “abbia un effetto così ampio e vasto in tutto il mondo”.

Regolamentare l’IA potrebbe anche non essere realisticamente realizzabile. Uno dei motivi è che gran parte della tecnologia è stata resa disponibile come software open-source, rendendola accessibile a tutti. Già questo potrebbe complicare molte iniziative di regolamentazione.

Prendere precauzioni è logico e sensato

Alcuni interpretano le dichiarazioni pubbliche dei leader dell’IA come una messa in scena del sostegno alla regolamentazione. Secondo Tom Siebel, leader di lunga data della Silicon Valley e attuale CEO di C3 AI, citato da MarketWatch: “I responsabili dell’IA giocano puntando allo sfinimento dei legislatori, chiedendo loro di regolamentarci. Ma non ci sono abbastanza soldi e capitale intellettuale per garantire la sicurezza di milioni di algoritmi. Sanno che è impossibile”.

Dobbiamo provarci, anche se potrebbe essere impossibile. Secondo la conversazione di Suleyman con The Economist: “Questo è il momento in cui dobbiamo adottare un principio di precauzione, non per paura, ma solo come modo logico e sensato di procedere”.

La promessa dell’IA è vasta, ma i rischi sono reali poiché si passa rapidamente da competenze limitate all’IA. Per creare queste tecnologie di IA a beneficio dell’umanità evitando gravi rischi potenziali, in quest’epoca di incertezza, dobbiamo agire con la massima prudenza, attenzione e coscienza.

Uno dei pericoli più pressanti, eppure trascurati, dell’IA non è la tecnologia in sé, ma piuttosto il modo in cui le persone possono interagire con essa. C’è il rischio che molti arrivino a considerare i giudizi dell’IA come supremi, credendo che la sua intelligenza eclissi il ragionamento umano. Di conseguenza, qualsiasi obiezione o prospettiva contraria offerta dagli esseri umani potrebbe essere respinta a causa della fede cieca nelle capacità dell’IA. Proprio come la fede in un Dio dalle vie misteriose, le persone potrebbero giustificare le decisioni dell’IA anche quando sono anomale o incomprensibili, semplicemente confidando nella sua superiorità.