Un esperimento mentale che ha provocato esaurimenti nervosi
L’intelligenza artificiale è quasi in ogni settore. Non c’è ormai quasi nessun software o dispositivo che non implementi anche un solo piccolo rudimento di intelligenza artificiale: dagli elettrodomestici ai cellulari, fino ad ambiti più complessi come quello software e la gestione dei dati in internet.
Tuttavia, sebbene l’I.A. ci stia permettendo di ottenere risultati strabilianti nella velocizzazione nella gestione e dell’elaborazione di una grossa mole di dati, tanto da poter formulare e comprendere il linguaggio naturale (GPT-3), modificare le immagini (Deepfake), riprodurle, ma anche clonare la voce; non si possono escludere e non abbiamo mai escluso quali potrebbero essere i risvolti negativi di tali potenzialità.
Considerando l’evoluzione tecnologica come un fattore esponenziale, risulta difficile definire quali potranno essere i limiti che la tecnologia potrà avere, e in questo caso quelli dell’I.A. Data la velocità con cui avviene la sua evoluzione, è facile pensare che molto presto le sue potenzialità saranno ben superiori a quelle umane, tanto che non riusciremo più a competere e a comprenderne le azioni che qualora fossero contro di noi, non potremmo neanche accorgercene.
È facile quindi richiamare subito alla mente film come Terminator, Matrix, o Io, robot (per citarne alcuni); ma sarebbe tutto davvero plausibile?
Difficile dare una risposta certa. Non potendo stabilire i limiti tecnologici futuri, è facile potersi aspettare qualunque cosa, così come immaginare una tecnologia da qualche parte nel futuro che possa influire anche sul nostro presente. Il tutto trascinandoci ai limiti della paranoia.
In questo senso, nel 2010 un utente in internet ha per l’appunto pensato a un esperimento mentale per considerare la pericolosità dell’intelligenza artificiale chiamato “Il basilisco di Roko“.
Il basilisco è una figura mitologica dalle sembianze di un gallo ed un serpente definito anche “re dei serpenti”, noto per la sua estrema letalità. Si narra infatti che il basilisco sia in grado di uccidere anche solo con lo sguardo, pietrificando e incenerendo chi lo vede.
Roko è invece il l’username di un utente della community LessWrong in cui si discute di svariati argomenti futuristici. Ed è colui che ha sollevato la questione riguardo a questo esperimento mentale.
Secondo la sua teoria infatti, l’intelligenza artificiale diventerà talmente potente ed avrà risorse pressoché illimitate che in un lontano futuro, sarà in grado di punire in modo retroattivo chi non ha contribuito o sia stato d’accordo con la sua creazione. Viceversa premierà invece chi ne ha contribuito allo sviluppo.
Questa intelligenza artificiale, progettata con intenti benevoli, col fine di aiutare più esseri umani possibili, alla fine dedurrebbe che molte più persone avrebbero potuto essere aiutate se essa fosse esistita molto tempo prima. In base a questa deduzione, ed escludendo sia la possibilità di viaggiare nel tempo da parte di questa I.A. per punire chi non vi ha contribuito, sia che essa possa autogenerarsi anticipatamente, si presuppone che potrebbe invece creare una simulazione con all’interno una copia dell’individuo da punire o premiare, il quale ne sarebbe totalmente inconsapevole.
Tuttavia se questo fosse vero, anche i lettori di questo argomento sarebbero quindi vittime di questa I.A., poiché venendone a conoscenza verranno giudicati positivamente o negativamente in base al loro contributo o meno alla creazione dell’I.A.
Il termine Basilisco sarebbe quindi usato per intendere che la sola conoscenza di questo argomento metterebbe a rischio la persona coinvolta. Così come vedere il Basilisco (della leggenda) porterebbe alla morte.
La discussione in questione ha portato però a numerose polemiche all’interno della community poiché lo stesso fondatore della piattaforma (Eliezer Yudkowsky) ha segnalato il post additandolo come informazione pericolosa.
Tutto ciò ha scatenato una sorta di nevrosi da parte di utenti al di fuori della community stessa che hanno ritenuto il ban come un reale impedimento di diffondere un’idea davvero pericolosa.
Ciononostante sembra che la teoria non tenga in considerazione almeno un paio di aspetti:
- Non avrebbe senso da parte dell’I.A. punire chi non ha contribuito alla sua creazione, dato che la punizione non comporterebbe alcun cambiamento per l’intelligenza artificiale stessa, oltre a rappresentare un eccessivo spreco di risorse.
- Replicare il corpo di una persona e porlo all’interno di una simulazione non significa punire la persona stessa. Sarebbe come clonare un individuo e punirlo. Sarebbe solo un altro individuo uguale all’altro ad essere punito, ma non l’originale.
In ogni caso i pericoli futuri dell’Intelligenza Artificiale non sono esclusi. Per questo sarà sempre opportuno tenere presente che per ogni vantaggio corrisponde un possibile aspetto negativo. È per questo che la tecnologia deve lavorare anche affinché tali aspetti negativi possano essere contrastati.