Come la crescente intelligenza delle IA potrebbe sconvolgere il mondo

Stephen Hawking, fisico dell’Università di Cambridge, ha scritto un articolo nel maggio 2014 con l’obiettivo di sensibilizzare l’opinione pubblica sui rischi posti dal rapido sviluppo dell’intelligenza artificiale. In un articolo per il quotidiano britannico The Independent, Hawking ha avvertito che lo sviluppo di una vera macchina pensante “sarebbe il più grande evento della storia umana”.

Secondo uno studio, una macchina dotata di un’intelligenza superiore a quella di una persona potrebbe “superare in astuzia i mercati finanziari, superare i ricercatori umani, manipolare i leader umani e sviluppare armi che non possiamo nemmeno comprendere”. La decisione di considerare tutto questo come fantascienza potrebbe finire per essere “potenzialmente il nostro peggior errore della storia”.

Alcune tecnologie utilizzano quella che viene definita intelligenza artificiale specializzata o “ristretta”, come i robot che spostano scatole o preparano hamburger, gli algoritmi che scrivono relazioni, compongono musica o fanno trading a Wall Street. Di fatto, ogni tecnologia di intelligenza artificiale pratica, al di fuori della fantascienza, è un’IA ristretta.

Il carattere specializzato dell’IA nel mondo reale non costituisce necessariamente un ostacolo all’automazione definitiva di un numero significativo di lavori. In un certo senso, le mansioni che la maggior parte della forza lavoro svolge sono di routine e prevedibili. Un numero enorme di lavori a tutti i livelli di competenza potrebbero un giorno essere minacciati da robot specializzati in rapida evoluzione o da algoritmi di apprendimento automatico che setacciano montagne di dati. Tutto ciò non richiede infatti l’uso dell’intelligenza artificiale.

Per sostituirvi nella vostra mansione, un computer deve semplicemente essere in grado di svolgere i compiti specifici per i quali siete pagati. Non è necessario che sia in grado di imitare l’intera gamma delle vostre capacità intellettuali. Certo, la maggior parte della ricerca e dello sviluppo dell’IA continua a essere indirizzata verso applicazioni di nicchia, ma c’è ragione di credere che queste tecnologie diventeranno radicalmente più potenti e adattabili nei prossimi decenni.

Anche se questi progetti specializzati continuano a generare risultati utili e ad attirare finanziamenti, un compito molto più difficile resta in sospeso. Il Santo Graal dell’intelligenza artificiale continua a essere la creazione di un sistema realmente intelligente, una macchina in grado di pensare in modo critico, di mostrare consapevolezza della propria esistenza e di impegnarsi in un discorso significativo.

Il desiderio di creare una macchina veramente pensante può essere fatto risalire almeno al 1950, quando Alan Turing pubblicò il documento che diede il via al campo dell’intelligenza artificiale. Nei decenni successivi, le aspettative per la ricerca sull’intelligenza artificiale sono spesso cresciute al di sopra di qualsiasi base tecnica realizzabile, soprattutto considerando la velocità dei computer dell’epoca.

La delusione seguiva immancabilmente l’investimento e gli sforzi di ricerca si fermavano, e seguivano quelli che sono stati definiti “inverni dell’intelligenza artificiale”, periodi lunghi e fiacchi. Ma la primavera è tornata ancora una volta. La straordinaria potenza dei computer moderni, i progressi in particolari campi della ricerca sull’IA e i miglioramenti nella nostra conoscenza del cervello umano sono fonte di grande speranza.

James Barrat, autore di un libro sugli effetti dell’IA avanzata, ha intrapreso un’indagine informale su circa 200 esperti di intelligenza artificiale di livello umano e non solo di intelligenza artificiale ristretta. In questo campo si parla di Intelligenza Artificiale Generale. Barrat ha dato agli informatici la possibilità di scegliere tra quattro previsioni per lo sviluppo dell’intelligenza artificiale generale.

I risultati: Il 42% degli intervistati ha previsto lo sviluppo di una macchina pensante entro il 2030, il 25% entro il 2050 e il 20% entro il 2100. Solo il 2% pensava che non sarebbe mai successo. Tuttavia, alcuni intervistati hanno suggerito che Barrat avrebbe dovuto fornire un’opzione ancora più precoce, magari il 2020, nei commenti al sondaggio.

Lo scienziato cognitivo e professore dell’Università di New York Gary Marcus, che tiene un blog sul New Yorker, sostiene che i recenti progressi in campi come le reti neurali per il deep learning sono stati notevolmente esagerati.

Tuttavia, è evidente che il campo ha improvvisamente guadagnato molto slancio. I progressi sono stati notevolmente accelerati dalla crescita di organizzazioni come Google, Facebook e Amazon, in particolare. Mai prima d’ora aziende così ricche hanno considerato l’IA come del tutto essenziale per i loro modelli di business, e mai prima d’ora la ricerca sull’IA si è trovata così vicina al centro di conflitti tra entità così potenti.

In tutte le nazioni si sta sviluppando una dinamica competitiva simile. Nelle nazioni autoritarie, l’IA sta diventando una necessità per le forze armate, i servizi segreti e i sistemi di sorveglianza. In effetti, nel prossimo futuro potrebbe profilarsi all’orizzonte una vera e propria competizione per le armi dell’IA. La domanda importante non è se esista un serio rischio di un altro inverno dell’IA per il settore nel suo complesso, ma piuttosto se i progressi si estenderanno anche all’Intelligenza Artificiale Generale o se rimarranno limitati all’IA ristretta.

Non c’è motivo di pensare che una macchina possa semplicemente eguagliare l’intelligenza umana se in futuro i ricercatori di IA riusciranno a fare il salto verso l’AGI. Una volta realizzata l’AGI, probabilmente ci troveremo presto di fronte a una macchina più intelligente di una persona.

Naturalmente, una macchina pensante avrebbe ancora tutti i vantaggi che i computer hanno già, compresa la capacità di eseguire calcoli e recuperare dati a velocità per noi insondabili. È inevitabile che presto coesisteremo sulla Terra con qualcosa di completamente sconosciuto, un’intelligenza veramente aliena e superiore.

Ed è possibile che questo sia solo l’inizio. La maggior parte dei ricercatori di IA concorda sul fatto che un tale sistema sarebbe costretto a concentrare la propria intelligenza verso l’interno. Concentrerebbe i suoi sforzi nel migliorare il proprio progetto, nel ricostruire il proprio software o, eventualmente, nell’utilizzare approcci di programmazione evolutiva per sviluppare, testare e ottimizzare i miglioramenti del progetto. Ne risulterebbe un processo iterativo di “miglioramento ricorsivo”.

Il sistema diventerebbe più intelligente e più capace a ogni aggiornamento. Il ciclo si accelererebbe, portando a una “esplosione di intelligenza” che produrrebbe una macchina migliaia o addirittura milioni di volte più intelligente di qualsiasi essere umano.

Un’esplosione di intelligenza di questo tipo avrebbe senza dubbio effetti profondi sull’umanità, se si verificasse. Potrebbe infatti provocare un’ondata di sconvolgimenti che travolgerebbe la nostra intera civiltà, per non parlare della nostra economia. Si tratterebbe di “rompere il tessuto della storia”, secondo le parole del futurista e inventore Ray Kurzweil, e di inaugurare un’occasione, o forse un’era, che è stata definita “la Singolarità”.

Questo comporterà allo stesso tempo problemi che riguardano l’etica e la responsabilità nell’uso dei dati e delle decisioni dell’IA, la preoccupazione per la privacy e la sicurezza dei dati, il rischio di bias e discriminazione negli algoritmi, la necessità di stabilire il giusto livello di autonomia delle IA e in modo che tutto sia sempre sotto controllo umano, oltre alla sostenibilità ambientale nell’uso delle risorse per l’IA, ma anche un’attenzione verso il rischio di manipolazione e disinformazione e la concentrazione del potere nelle mani di poche entità. Affrontare queste sfide richiederà una collaborazione inclusiva tra governi, industrie e società per garantire un utilizzo responsabile e vantaggioso dell’IA.

Rise of the Robots, di Martin Ford, è disponibile per l’acquisto qui