Alcune implicazioni non sono da sottovalutare

Un’obiezione comune all’idea che una superintelligenza artificiale possa distruggere la nostra specie, non è che essa stessa sia impossibile, e non è neanche che non saremo in grado di prevenirla o fermarla, piuttosto, che non avrà i mezzi o la motivazione per porre fine all’umanità.

Immaginate sistemi, biologici o artificiali, con livelli di intelligenza uguali o molto più grandi dell’intelligenza umana. Cervelli umani potenziati potrebbero essere raggiungibili attraverso la fusione di ingegneria genetica, nanotecnologia, informatica e scienza cognitiva, mentre un’ intelligenza delle macchine superiore a quella umana è probabile che si sviluppi attraverso i progressi dell’informatica, della scienza cognitiva e dell’emulazione dell’ intero cervello.

E ora immaginate che qualcosa vada storto con uno di questi sistemi, o se venissero deliberatamente usati come armi. Probabilmente non saremmo in grado di contenere questi sistemi una volta nati, né saremmo in grado di prevedere il modo in cui questi sistemi risponderanno alle nostre richieste.

“Questo è noto come il problema del controllo”, ha spiegato Susan Schneider, direttore del Center for Future Mind e autore di Artificial You: AI and the Future of the Mind (Tu Artificiale: IA e il Futuro della Mente), ha spiegato. “Si tratta semplicemente di come controllare un’IA che è enormemente più intelligente di noi”.

Per analogia, Schneider ha indicato il famoso scenario delle graffette, in cui un produttore di graffette in possesso di un’intelligenza artificiale mal programmata si propone di massimizzarne l’efficienza della produzione. Però distrugge il pianeta convertendo tutta la materia sulla Terra in graffette, una categoria di rischio chiamata “istanziazione perversa” dal filosofo di Oxford Nick Bostrom nel suo libro del 2014 Superintelligence: Paths, Dangers, Strategies (Superintelligenza: Percorsi, Pericoli, Strategie). La preoccupazione generale è che diremo a una superintelligenza di fare qualcosa e, poiché non ne abbiamo capito bene i dettagli, essa interpreterà grossolanamente i nostri desideri, dando luogo a qualcosa che non avevamo previsto.

Per esempio, potremmo richiedere un mezzo efficiente per estrarre l’energia del sole, spingendo una superintelligenza ad esaurire le risorse del nostro intero pianeta nella costruzione di un enorme campo fotovoltaico. Oppure chiedendo a una superintelligenza di “massimizzare la felicità umana” potrebbe costringerla a riconnettere i centri del piacere del nostro cervello o a trasferire i cervelli umani in un supercomputer, costringendoci a sperimentare perpetuamente un ciclo di tot secondi di felicità per l’eternità, come ipotizza Bostrom.

>>>  Internet ladra del tempo

Una possibile soluzione al problema del controllo sarebbe instillare in una superintelligenza artificiale dei codici morali compatibili con l’uomo. Se potessimo fare questo, una macchina anche potente eviterebbe di causare danni o di fare i suoi interessi in un modo che viola la nostra sensibilità morale ed etica. Il problema, come ha sottolineato Schneider, è che per poter “programmare un codice morale, abbiamo bisogno di una buona teoria morale, ma c’è parecchia discordanza su questo nel campo dell’etica”, ha precisato.

L’umanità non ha mai prodotto un codice morale comune su cui tutti possano essere d’accordo. E chiunque abbia una comprensione anche rudimentale del problema del carrello ferroviario può confermarvi che l’etica può diventare super complicata in breve tempo. Questa idea che possiamo rendere la superintelligenza sicura o controllabile insegnandole la moralità umana probabilmente non funzionerà.

“Se potessimo prevedere cosa farà una superintelligenza, saremmo noi stessi altrettanto intelligenti”, ha spiegato Roman Yampolskiy, professore di informatica e ingegneria all’Università di Louisville. “Per definizione, la superintelligenza è più intelligente di qualsiasi umano e quindi troverà qualche soluzione sconosciuta per raggiungere gli obiettivi che le assegniamo, sia che si tratti di progettare un nuovo farmaco per la malaria, elaborare strategie sul campo di battaglia o gestire una rete energetica locale”. Detto questo, Yampolskiy crede che potremmo essere in grado di prevedere le azioni maligne di una superintelligenza guardando gli esempi di ciò che un umano intelligente potrebbe fare per conquistare il mondo o distruggere l’umanità.

Per esempio, usando una sequenza di amminoacidi per determinare la forma tridimensionale di una proteina, “potrebbe essere usata per creare un esercito di nanobot biologici”, ha aggiunto. “L’IA potrebbe fare un po’ di trading azionario, o giocare a poker, o scrivere, e usare i suoi profitti per pagare le persone per eseguire le sue volontà”. Grazie alla recente proliferazione delle criptovalute, questo potrebbe essere fatto segretamente e su larga scala”.

Una superintelligenza artificiale potrebbe “arrivare alla conclusione che il mondo sarebbe migliore senza gli esseri umani e cancellarci”, ha poi aggiunto.

>>>  L'IA può identificare le vulnerabilità degli umani e influenzarne le decisioni

Per una superintelligenza artificiale intenzionata a distruggere deliberatamente l’umanità, lo sfruttamento delle nostre debolezze biologiche rappresenterebbe la via più semplice al successo. Gli esseri umani possono sopravvivere per circa 30 giorni senza cibo e circa 3 o 4 giorni senza acqua, ma resistiamo solo per pochi minuti senza ossigeno. Una macchina abbastanza intelligente troverebbe probabilmente un modo per annientare l’ossigeno nella nostra atmosfera, cosa che potrebbe fare con una sorta di sciame nanotecnologico autoreplicante. Purtroppo, i futuristi hanno un termine per una strategia come questa: ecofagia globale, o il temuto scenario del grey goo. In un tale scenario, flotte di macchine molecolari deliberatamente progettate cercherebbero risorse specifiche e le trasformerebbero in qualcos’altro, incluse copie di se stesse. Questa risorsa non deve essere necessariamente l’ossigeno, ma solo la rimozione di una risorsa chiave critica per la sopravvivenza umana.

Sembra tutto molto fantascientifico, ma Alfonseca ha detto che la finzione immaginaria può aiutare a evidenziare i potenziali rischi, riferendosi in particolare a Matrix. Anche Schneider crede nel potere delle narrazioni fittizie, indicando il cortometraggio distopico Slaughterbots, in cui droni autonomi armati invadono una classe. Le preoccupazioni circa la pericolosità dell’IA e l’aumento delle macchine assassine autonome riguardano sempre più il “qui e ora”, ha sottolineato Schneider, per cui, ad esempio, le tecnologie dei droni possono attingere al software di riconoscimento facciale esistente per colpire le persone.

Il ricercatore del MIT sull’apprendimento automatico Max Tegmark dice che i film d’intrattenimento come Terminator, pur presentando scenari vagamente possibili, “distrae dai reali rischi e opportunità presentati dall’IA”, come ha scritto nel suo libro del 2017 Life 3.0: Being Human in the Age of Artificial Intelligence (Vita 3.0: Essere Umani nell’Era dell’Intelligenza Artificiale). Temark immagina scenari più subdoli, anche più insidiosi, in cui un’intelligenza artificiale prende il controllo del mondo attraverso un’astuta ingegneria sociale, un inganno e grazie alla costante raccolta di risorse preziose.

Di per sé, l’avvento di un’ intelligenza generale delle macchine è destinato ad essere impressionante e un probabile punto di svolta nella storia umana. Questa intelligenza artificiale generalizzata “sarebbe abbastanza capace di progettare ricorsivamente un’intelligenza sempre migliore, limitata in ultima analisi solo dalle leggi della fisica, che sembrano consentire un’intelligenza ben oltre i livelli umani”, scrive Tegmark. In altre parole, un’ intelligenza artificiale generalizzata potrebbe essere usata per inventare la superintelligenza.

>>>  I robot saranno in grado di toccare

Schneider teme che “ci sia già una corsa agli armamenti che utilizzino l’IA nell’esercito” e che la “crescente dipendenza dall’IA renderà le capacità percettive e cognitive umane incapaci di rispondere alle sfide militari in modo sufficientemente rapido”. “Richiederemo all’IA di farlo per noi, ma non è chiaro come potremo continuare a tenere gli umani nel giro”, ha affermato. “È concepibile che le IA alla fine dovranno rispondere per nostro conto quando si confronteranno con attacchi militari, prima di avere la possibilità di sintetizzare i dati in arrivo”, ha spiegato Schneider.

Gli esseri umani sono inclini all’errore, soprattutto quando sono sotto pressione sul campo di battaglia, ma gli errori di calcolo o di valutazione fatti da un’IA introdurrebbero un ulteriore livello di rischio.

L’autore di fantascienza Isaac Asimov se lo aspettava, dato che i robot nei suoi romanzi, nonostante fossero vincolati dalle Tre Leggi della Robotica, si imbattevano in ogni tipo di problema indipendentemente dai nostri sforzi. Problemi simili potrebbero emergere se provassimo a fare qualcosa di analogo, anche se, come ha sottolineato Schneider, concordare un codice morale per guidare un’IA sarà difficile.

Un virus può adattarsi alle nostre contromisure, ma solo attraverso i processi di mutazione e selezione casuale, che sono invariabilmente legati ai vincoli della biologia. In maniera ancora più inquietante, un’IA maligna potrebbe progettare il proprio virus e modificarlo continuamente per creare nuove varianti mortali in risposta alle nostre contromisure.

Per quanto ci sforziamo di immaginare come l’intelligenza artificiale potrebbe distruggere l’umanità, non saremo in grado di indovinare quale sarà la sua vera strategia. La cosa migliore da fare sarebbe impedire che venga creata, ma sappiamo che questo è impossibile. Quindi, tutto quello che possiamo fare è cercare di evitare di darle il pieno controllo su tutto. Tuttavia, anche se conosciamo i pericoli, l’umanità rischierà inevitabilmente. È impossibile creare qualcosa che sia buono al 100% perché le conseguenze negative sono inimmaginabili quando una tale creazione ha così tanto potere.

Fonte gizmodo.com