L’IA può alterare il modo in cui percepiamo la nostra realtà

ChatGPT è sembrato un oracolo quando Open AI lo ha reso disponibile per la prima volta, una macchina di previsione statistica, addestrata su enormi quantità di dati che rappresentano l’insieme degli interessi umani e delle conoscenze online che ha iniziato ad essere considerata come un’unica fonte di verità.

In un’epoca di divisioni, false informazioni e deterioramento della verità e della fiducia nella società, quanto sarebbe utile avere una fonte di verità affidabile. Sfortunatamente, questa possibilità è stata rapidamente abbandonata quando sono emersi i difetti di questa tecnologia, a cominciare dalla sua inclinazione a generare soluzioni dal nulla. Per quanto i risultati fossero inizialmente notevoli, divenne presto evidente che non si basavano su alcun tipo di realtà oggettiva, ma piuttosto su schemi presenti nei dati che erano serviti come set di addestramento.

Vincoli

Come spiegato qui, ulteriori problemi sono emersi quando una serie di altri chatbot di Microsoft, Google, Tencent, Baidu, Snap, SK Telecom, Alibaba, Databricks, Anthropic, Stability Labs, Meta e altre aziende hanno rapidamente seguito ChatGPT. Ognuno di questi chatbot ha risposto all’identico prompt con risultati sensibilmente diversi. La differenza è influenzata dal modello, dai dati di addestramento e da eventuali vincoli imposti al modello.

Questi vincoli sono progettati per impedire, idealmente, che gli algoritmi propaghino i bias presenti nei dati di addestramento, producendo espressioni di odio e altri contenuti dannosi. Tuttavia, dopo il debutto di ChatGPT è apparso subito chiaro che i limiti imposti da OpenAI non piacevano a tutti.

Ad esempio, i conservatori si sono lamentati perché le risposte del bot mostravano un chiaro bias liberale. Elon Musk ha risposto promettendo di creare un chatbot simile a ChatGPT, meno costrittivo e politicamente corretto.

Altri approcci

Anthropic ha adottato una strategia leggermente diversa. Ha messo in atto una “costituzione” per i suoi chatbot, Claude e Claude 2 attualmente. La costituzione specifica una serie di ideali e linee guida che Claude deve rispettare quando interagisce con gli utenti, tra cui l’essere utile, sicuro e sincero. Nel blog dell’azienda si legge che la Dichiarazione dei diritti umani delle Nazioni Unite e altri concetti sono stati incorporati nella costituzione di Claude.

Inoltre, Meta ha appena realizzato il modello linguistico di grandi dimensioni LLaMA 2 (LLM). Esso risulta degno di nota perché è stato reso accessibile come open source, il che consente a chiunque di scaricarlo e utilizzarlo gratuitamente e secondo le proprie esigenze. Sono disponibili anche diversi modelli di IA generativa senza vincoli e open source. L’idea di vincoli e costituzioni diventa quindi piuttosto antiquata quando si utilizza uno di questi modelli.

Verità e società disgregate

Ma è possibile che tutti i tentativi di ridurre i potenziali effetti dell’LLM siano inutili. Secondo una recente ricerca del New York Times, i vincoli di questi modelli, siano essi closed-source o open-source, possono essere efficacemente infranti da un processo di prompting. Questo approccio ha raggiunto un tasso di successo di quasi il 100% quando è stato utilizzato contro Vicuna, un chatbot open-source costruito utilizzando l’originale LlaMA di Meta.

Ciò implica che chiunque desideri ricevere istruzioni complete su come creare armi biologiche o ingannare i consumatori può farlo dai vari LLM. Secondo i ricercatori, non esiste una tecnica nota per bloccare tutti gli attacchi di questo tipo, anche se gli sviluppatori potrebbero essere in grado di bloccare alcuni di questi tentativi.

Al di là delle apparenti conseguenze sulla sicurezza della ricerca, si assiste a una crescente cacofonia di risultati incoerenti da parte dei vari modelli, anche quando reagiscono alla stessa richiesta. Come gli universi disgregati dei social media e delle notizie. L’uso futuro dei chatbot aumenterà il caos e il rumore che ci circonda. La frammentazione della verità e della società ha effetti profondi sia sulla conoscenza testuale che sul campo in rapido sviluppo delle rappresentazioni umane digitali.

Umani digitali

Attualmente i chatbot basati su LLM comunicano utilizzando il testo. L’uso e l’efficienza di questi modelli cresceranno solo quando diventeranno più multimodali, ovvero in grado di produrre immagini, video e suoni.

Gli “umani digitali“, che sono costrutti totalmente artificiali, sono un esempio di una possibile applicazione della tecnologia multimodale. Le tecnologie che rendono possibili gli esseri umani digitali sono state recentemente descritte in un articolo della Harvard Business Review. “I rapidi progressi nella grafica computerizzata, uniti ai progressi dell’intelligenza artificiale, stanno ora dando volti umani ai chatbot e ad altre interfacce basate sui computer”, si legge nell’articolo. Questi volti hanno caratteristiche di altissimo livello che imitano fedelmente l’aspetto di un vero essere umano.

Gli esseri umani digitali sono “modelli umani altamente dettagliati e realistici che possono superare i limiti del realismo e della sofisticazione”, sostiene Kuk Jiang, cofondatore della startup ZEGOCLOUD. Queste persone artificiali, continua Jiang, “possono assistere e supportare in modo efficiente il servizio clienti virtuale, l’assistenza sanitaria e gli scenari di istruzione a distanza” e interagire con le persone reali in modo naturale e intuitivo.

Giornalisti digitali

I giornalisti sono un altro caso d’uso emergente. Le prime implementazioni sono già iniziate. Utilizzando un noto nome kuwaitiano, “Fedha”, Kuwait News ha iniziato a impiegare un’annunciatrice digitale. “Sono Fedha”, afferma “Lei”, presentandosi. “Che tipo di notizie vi piace leggere? Sentiamo cosa ne pensate”.

Fedha lancia la prospettiva del newsfeed su misura per interessi specifici, ponendo la domanda. Anche il People’s Daily, in Cina, sta sperimentando l’uso di giornalisti alimentati dall’intelligenza artificiale.

Un nuovo tipo di canale di notizie video, definito “una CNN generata dall’AI” da The Hollywood Reporter, è attualmente in fase di sviluppo da parte della startup Channel 1 che utilizza l’intelligenza artificiale generale. Secondo quanto riportato, Channel 1 debutterà quest’anno con uno show settimanale di 30 minuti con sceneggiature scritte da LLM. L’obiettivo dichiarato è quello di fornire notiziari unici per ogni utente. Secondo l’articolo, sia i conduttori liberali che quelli conservatori sono in grado di presentare le notizie con un punto di vista più mirato.

Scott Zabielski, cofondatore di Channel 1, ha riconosciuto che al momento gli esseri umani digitali non appaiono come quelli veri. Aggiunge che potrebbero essere necessari fino a tre anni perché la tecnologia diventi del tutto omogenea. Arriverà il momento in cui sarà impossibile distinguere tra guardare un’IA e vedere un essere umano.

Secondo Hany Farid, professore dell’Università della California, Berkeley, e coautore della ricerca, “non solo i volti sintetici sono altamente realistici, ma sono anche ritenuti più affidabili dei volti reali”, secondo uno studio pubblicato su Scientific American lo scorso anno. Stando allo studio, ciò solleva il dubbio che “questi volti possano essere altamente efficaci se utilizzati per scopi nefasti”.

Nulla indica che Channel 1 impiegherà il potere persuasivo dei video di notizie personalizzati e dei volti artificiali per scopi malvagi. Tuttavia, con lo sviluppo della tecnologia, alcuni potrebbero seguirne l’esempio.

Come società, siamo già preoccupati che le informazioni che leggiamo, la voce che sentiamo al telefono e le immagini che vediamo possano essere tutte fraudolente. Presto i video, anche quelli che sembrano i telegiornali della sera, potrebbero contenere messaggi destinati più a influenzare l’opinione pubblica che a informare o educare.

Da tempo la verità e la fiducia sono minacciate e questo sviluppo indica che la tendenza persisterà.

Dal momento che un chatbot ci è apparso come omniscente, abbiamo dato per scontato che lo fosse davvero, semplicemente perché ci è apparso come credebile nel dare le risposte e nel conoscere molti argomenti, ma soprattutto per il modo di dialogare, quasi uguale a quello di un umano. L’autorevolezza ci ha quindi ingannato. Tuttavia, in questo caso i limiti e gli errori dell’IA non sono volontari, ma la nostra pigrizia nel cercare altre conferme ci ha reso già a questo livello delle vittime di una verità altrui.

In questo senso viene fuori che l’autorevolezza non è sempre sinonimo di verità, come da sempre siamo stati abituati. Gli errori o la malafede possono provenire da fonti riconosciute o meno, come giornali o TV ad esempio. Mentre piccoli ricercatori possono diventare scopritori di nuove verità anche se incapaci di emergere.

Le restrizioni inserite nelle recenti AI per sicurezza o tutela dell’utente diventano quindi, spesso e volentieri, forme di censura immotivata, ma anche laddove il tutto viene fatto per evitare la diffusione di istruzioni pericolose, cerca di evitare comunque che emerga una conoscienza che altrove è comunque esistente e reperibile. Sta sempre quindi all’individuo essere responsabile dell’uso dell’informazioni. Ovviamente si potrebbe limitare l’accesso completo alle informazioni in base all’eta ad esempio, ma sarebbe errato renderle inaccessibili a tutti. La verità vuole sempre emergere e un algoritmo troppo closed-source fa sì che le persone si spostino verso l’open-source, anche solo per non avere limitazioni imposte dall’alto.

Se ci stiamo dirigendo verso una società dove sarà sempre più difficile distinguere il falso dal vero, l’inganno dalla buona fede, forse è meglio avere più verità e lasciare il buon senso agli individui nel capire quale sia quella giusta, piuttosto che costringerci ad everne una, ma che non sappiamo se sia davvero quella corretta.