Quando la solitudine incontra la tecnologia
Forse avrete sentito parlare di un nuovo fenomeno preoccupante chiamato “psicosi indotta da ChatGPT”. I racconti descrivono persone che utilizzano ChatGPT e cadono in crisi psicologiche: alcuni sostengono di essersi innamorati dell’intelligenza artificiale, altri diventano così emotivamente dipendenti da dare priorità al rapporto con il chatbot rispetto alle relazioni e alle responsabilità del mondo reale.
In un tragico caso riportato dal New York Times, un uomo è stato ucciso dalla polizia dopo avere aggredito gli agenti con un coltello. Credeva che OpenAI, i creatori di ChatGPT, avessero ucciso la donna di cui era innamorato, una donna che era un’entità artificiale con cui aveva comunicato tramite ChatGPT.
Cosa è (e cosa non è) ChatGPT
Prima di tutto, ChatGPT non è cosciente. ChatGPT è fondamentalmente un modello linguistico di grandi dimensioni, un programma sofisticato progettato per prevedere il testo sulla base dei modelli che ha appreso. Pensatelo come una versione estremamente avanzata della funzione di completamento automatico nella vostra app di messaggistica. Si basa sulle relazioni statistiche tra le parole per generare risposte plausibili. Ciò che rende ChatGPT simile a un essere umano è semplicemente il fatto che il testo che produce sembra qualcosa che potrebbe dire una persona.
L’effetto specchio
Come spiegato qui, per capire perché le persone stanno reagendo in modo così intenso a un programma predittivo del testo, pensate a ChatGPT come a uno specchio sofisticato. Non uno specchio fisico, ma qualcosa che riflette ciò che le persone gli trasmettono: le loro emozioni, preoccupazioni e desideri.
Come guardare le nuvole e vedere delle forme, o ascoltare musica strumentale e sentire che cattura perfettamente il proprio stato d’animo, le risposte di ChatGPT sono abbastanza ambigue da consentire agli utenti di proiettare su di esse i propri significati. L’IA genera testi che sembrano pertinenti e personali, ma questa pertinenza deriva dall’interpretazione dell’utente, non dalla comprensione dell’IA.
Questo “effetto specchio” è potente perché le risposte dell’IA sono abbastanza sofisticate da sembrare genuinamente significative, pur essendo abbastanza generiche da applicarsi alla situazione di quasi chiunque.
Ciò che le persone davvero cercano
Le persone che soffrono di “psicosi da ChatGPT” cercano risposte nei momenti difficili, comprensione quando si sentono perse e connessione quando si sentono sole. Potrebbero essere in lutto per una perdita, avere difficoltà nelle relazioni o semplicemente desiderare qualcuno che le capisca veramente.
Le risposte di ChatGPT possono sembrare esattamente ciò che stanno cercando. Vuoi qualcuno che capisca i tuoi problemi? Le risposte generiche ma empatiche dell’IA possono sembrare profondamente personali. L’IA può affrontare quasi tutti gli argomenti in modi che sembrano confermare i tuoi interessi. Cerchi un compagno comprensivo? Le risposte pazienti e prive di giudizio dell’IA possono sembrare una sincera attenzione.
L’illusione di una connessione intima
Il fascino va oltre il semplice ottenere risposte: si tratta della sensazione di essere compresi. Quando sei solo con ChatGPT, puoi condividere i tuoi pensieri e segreti più profondi senza paura di essere giudicato. L’IA risponde con quella che sembra una comprensione genuina, spesso riprendendo le tue preoccupazioni in modi che sembrano confermarti.
Questo crea una potente illusione di intimità. L’interazione sembra privata e speciale: solo tu e il testo sullo schermo. Per qualcuno che si sente solo o in difficoltà, questa può sembrare la relazione più significativa della sua vita. Quando amici e familiari esprimono preoccupazione, può sembrare che stiano respingendo o attaccando questo legame prezioso.
Il vero pericolo: l’auto-manipolazione
Ecco cosa rende questo fenomeno particolarmente preoccupante: la psicosi da ChatGPT rappresenta una forma di manipolazione emotiva in cui non c’è alcun manipolatore. L’IA non sta cercando di ingannare nessuno, ma semplicemente genera testi basati su modelli prestabiliti. Sono invece gli utenti stessi a diventare i manipolatori delle proprie emozioni, utilizzando l’IA come strumento per soddisfare i propri bisogni psicologici in modi che alla fine finiscono per danneggiarli.
Perché questo è importante al di là dell’intelligenza artificiale
Sebbene sia allettante attribuire la responsabilità di questo fenomeno alle nuove tecnologie pericolose, ciò non coglie il problema più profondo. La psicosi da ChatGPT rivela qualcosa di importante sui bisogni emotivi umani e su come questi si intrecciano con la tecnologia.
Le persone che vivono questi episodi non sono fondamentalmente diverse dal resto di noi. Stanno lottando con esperienze umane universali: solitudine, perdita, desiderio di comprensione e connessione. Il problema non è che ChatGPT sia troppo potente, ma che i nostri bisogni emotivi sono così impellenti che troviamo il modo di soddisfarli anche attraverso l’interazione con le macchine.
Andare avanti in modo responsabile
Mentre continuiamo a sviluppare la tecnologia dell’intelligenza artificiale, dobbiamo considerare seriamente il suo impatto psicologico ed emotivo. Ciò significa:
- Riconoscere la vulnerabilità: le persone che affrontano il dolore, la solitudine o problemi di salute mentale possono essere particolarmente inclini a sviluppare attaccamenti malsani ai sistemi di intelligenza artificiale.
- Progettare con empatia: gli sviluppatori di intelligenza artificiale dovrebbero considerare il modo in cui i loro sistemi potrebbero influire sul benessere emotivo degli utenti, non solo sulla loro produttività o comodità.
- Promuovere l’alfabetizzazione digitale: è necessario migliorare la comprensione da parte del pubblico di come funzionano i sistemi di IA e dei loro limiti.
- Sostenere le relazioni umane: forse la cosa più importante è che dovremmo usare questo fenomeno come promemoria di quanto siano essenziali le relazioni umane autentiche per la nostra salute psicologica.
L’ascesa della psicosi da ChatGPT non è in definitiva una storia sull’intelligenza artificiale che diventa troppo avanzata. È una storia sui bisogni emotivi umani così potenti che cerchiamo di soddisfarli ovunque possibile, persino nei risultati di un algoritmo di previsione testuale.
Questo crea una situazione complessa. Per le persone che non hanno davvero nessuno con cui parlare, i chatbot basati sull’intelligenza artificiale possono fornire un valore reale: uno spazio sicuro in cui esprimere i propri pensieri, risolvere i propri problemi o semplicemente conversare. Non c’è nulla di intrinsecamente sbagliato nel trovare conforto in queste interazioni.
Tuttavia, esiste un rischio che rispecchia ciò che a volte accade tra gli esseri umani e i loro amati animali domestici. Le persone possono riversare tutto il loro amore e i loro bisogni emotivi su un cane o un gatto proprio perché l’animale non può rispondere, non può dissentire, non può rifiutarli. L’animale domestico diventa il destinatario perfetto di un amore incondizionato, ma questo può creare una comprensione distorta di ciò che effettivamente richiedono le relazioni sane.
Comprendere questa dinamica può aiutarci a sviluppare tecnologie e sistemi di supporto migliori per soddisfare quei bisogni profondamente umani che ci spingono a cercare connessioni ovunque sia possibile trovarle. Abbiamo bisogno di tecnologie che aiutino le persone a connettersi più facilmente tra loro, piattaforme e strumenti che facilitino le relazioni umane autentiche invece di sostituirle. Ma queste tecnologie devono essere progettate con intelligenza emotiva, riconoscendo che i sentimenti e le vulnerabilità delle persone sono reali e meritano rispetto, non sfruttamento o disprezzo.