Con l’evoluzione dell’IA, aumenta la paura

A volte si scherza su un futuro in cui l’umanità dovrà sottomettersi a governanti robotici quando si assiste a macchine che si comportano come gli esseri umani o a computer che compiono prodezze strategiche e intellettuali imitando l’inventiva umana.

La serie fantascientifica Humans è tornata per la sua terza stagione, con il conflitto tra umani e IA al centro della scena. Nei nuovi episodi, persone ostili trattano gli esseri sintetici coscienti con diffidenza, paura e odio. La violenza esplode quando i Synth (i robot antropomorfi della serie) lottano per difendere non solo i loro diritti fondamentali, ma anche le loro vite da persone che li considerano una minaccia mortale e meno che umani.

Come spiegato qui, non tutti sono entusiasti di abbracciare l’IA, nemmeno nel mondo reale. I più importanti professionisti della tecnologia e della scienza hanno recentemente messo in guardia sui rischi imminenti che l’intelligenza artificiale potrebbe rappresentare per l’umanità, ipotizzando addirittura che le capacità dell’IA potrebbero porre fine alla razza umana, dal momento che gli scienziati informatici hanno superato i limiti di ciò che l’IA può fare.

Ma perché il concetto di IA mette così a disagio gli esseri umani?

Uno dei personaggi noti che ha espresso preoccupazione per l’IA è Elon Musk. Nel luglio 2017, Musk ha dichiarato: “Sono stato esposto a un’IA all’avanguardia e penso che le persone dovrebbero essere davvero preoccupate”, ai partecipanti a un raduno della National Governors Association.

“Continuo a suonare il campanello d’allarme”, ha aggiunto Musk. “Ma finché la gente non vede i robot andare per strada a uccidere le persone, non sa come reagire perché sembra così etereo”.

In precedenza, nel 2014, Musk aveva definito l’IA come “la nostra più grande minaccia esistenziale” e, nell’agosto 2017, aveva affermato che l’IA rappresentava una minaccia alla civiltà maggiore di quella rappresentata dalla Corea del Nord. Consapevole dei potenziali pericoli di un’IA dannosa, il fisico Stephen Hawking, scomparso il 14 marzo, nel 2014 aveva avvertito la BBC che “lo sviluppo di un’intelligenza artificiale completa potrebbe segnare la fine della razza umana”.

Inoltre, è inquietante che alcuni programmatori, in particolare quelli del MIT Media Lab di Cambridge, Massachusetts, sembrino determinati a dimostrare quanto terribile possa essere l’IA.

Infatti, utilizzando una rete neurale chiamata “Nightmare Machine“, gli informatici del MIT sono riusciti a convertire delle comuni fotografie in inquietanti paesaggi infernali. Mentre, basandosi sulle 140.000 storie dell’orrore caricate dagli utenti di Reddit sul subreddit r/nosleep, un’IA chiamata “Shelley” ha creato storie spaventose.

“Siamo interessati a come l’IA induce le emozioni, in questo caso particolare la paura”, ha spiegato in un’e-mail Manuel Cebrian, responsabile della ricerca presso il MIT Media Lab, a proposito delle storie spaventose di Shelley.

Secondo Kilian Weinberger, professore associato presso il Dipartimento di Informatica della Cornell University, gli atteggiamenti negativi nei confronti dell’IA possono essere suddivisi in due categorie: l’idea che essa diventi cosciente e cerchi di distruggerci e l’idea che persone immorali la utilizzino per scopi dannosi.

“Una cosa che la gente teme è che se l’IA superintelligente, più intelligente di noi, diventasse cosciente, potrebbe trattarci come esseri inferiori, come noi trattiamo le scimmie”, ha affermato.

Tuttavia, come ha sottolineato Weinberger, queste preoccupazioni sul fatto che l’IA diventi cosciente e distrugga l’umanità si basano su fraintendimenti di ciò che l’IA è in realtà. Gli algoritmi che determinano il comportamento dell’IA la collocano entro limiti molto rigidi. Alcune categorie di problemi si trasferiscono bene alle capacità dell’IA, rendendo alcune attività ragionevolmente semplici da risolvere per l’IA. Tuttavia, ha aggiunto, “la maggior parte delle cose non si adatta a queste categorie e non è appropriata”.

Ciò indica che, sebbene l’IA possa essere in grado di compiere imprese sorprendenti all’interno di parametri precisamente definiti, tali imprese rappresentano il limite delle sue capacità.

“L’IA che raggiunge la coscienza – non c’è stato assolutamente alcun progresso nella ricerca in questo campo”, ha spiegato Weinberger. “Non credo che questo sia il nostro futuro prossimo”.

Purtroppo, secondo Weinberger, la probabilità che un umano senza etica utilizzi l’IA per scopi negativi è molto più alta rispetto all’altra ipotesi inquietante. A seconda delle intenzioni dell’utente, qualsiasi apparecchiatura o strumento può essere usato per ragioni buone o cattive. L’idea di armi che sfruttano l’intelligenza artificiale è indubbiamente terrificante e, secondo Weinberger, beneficerebbe di una stretta supervisione da parte del governo.

Weinberger ha ipotizzato che se le persone riuscissero a superare i timori che l’intelligenza artificiale sia ostile, potrebbero essere più ricettive ai suoi vantaggi. Secondo Weinberger, il miglioramento degli algoritmi di riconoscimento delle immagini potrebbe un giorno aiutare i dermatologi a individuare i nei che potrebbero essere cancerosi e le auto a guida autonoma potrebbero ridurre il numero di vittime degli incidenti stradali, molti dei quali sono causati da errori umani.

Tuttavia, nell’universo “Humans” dei Synth autocoscienti, le preoccupazioni per un’IA consapevole portano a violenti alterchi tra Synth e persone. Si prevede che il conflitto tra umani e IA continuerà a svilupparsi e a intensificarsi.

L’IA si sta evolvendo rapidamente e le persone hanno paura che il suo potenziale possa cambiare radicalmente le loro vite. Sebbene le capacità dell’IA siano attualmente limitate a compiti specifici, sono ben lontane da un’IA globale in grado di fare qualsiasi cosa. Tuttavia, mentre alcuni rassicurano che questa paura sia infondata, altri pensano che i rischi si avvereranno in futuro se sottovalutiamo il problema. E poiché l’intelligenza delle IA potrebbe superare di gran lunga la nostra, potremmo anche non accorgerci del problema.