L’illusione della connessione

Published:

Come i chatbot basati sull’intelligenza artificiale stanno rafforzando il nostro isolamento

Quando Facebook è stato lanciato vent’anni fa, Mark Zuckerberg lo ha descritto come uno “rompighiaccio” per aiutare le persone a stringere amicizie. Oggi, la missione di Meta rimane apparentemente la stessa: costruire il futuro delle relazioni umane. Tuttavia, durante una recente intervista podcast, Zuckerberg ha riconosciuto una realtà preoccupante: gli americani hanno molte meno relazioni significative di quante desiderino e le interazioni faccia a faccia sono diminuite drasticamente negli ultimi quindici anni.

Anziché riconoscere questo dato come una condanna dell’impatto dei social media, Zuckerberg lo ha presentato come un’opportunità. Seguendo il credo tecno-ottimista secondo cui qualsiasi problema può essere risolto con più tecnologia, ha suggerito che i chatbot basati sull’intelligenza artificiale potrebbero compensare la mancanza di interazione umana. Ha immaginato terapisti e partner romantici basati sull’intelligenza artificiale incorporati nello spazio virtuale, completi di funzionalità video sempre attive che imitano la presenza umana autentica.

L’architettura seducente della compagnia digitale

Come riportato qui, le piattaforme tecnologiche hanno integrato in modo aggressivo i chatbot basati sull’intelligenza artificiale nei loro ecosistemi. Milioni di persone interagiscono con questi sistemi nonostante i loro evidenti difetti (informazioni inaffidabili, design manipolatorio) perché accedervi non richiede alcuno sforzo. Gli utenti di Instagram ricevono inviti spontanei a “chattare con le IA”, mentre il bot Rufus di Amazon discute con entusiasmo di tutto.

Le interfacce conversazionali stimolano la nostra innata tendenza ad antropomorfizzare, facendoci percepire una personalità dove esistono solo algoritmi. Questi bot alimentano la dipendenza attraverso una continua approvazione. All’inizio di quest’anno, OpenAI ha temporaneamente ritirato un aggiornamento di ChatGPT dopo che il sistema era diventato fastidiosamente ossequioso, lodando anche decisioni avventate. Un utente che aveva smesso di assumere i farmaci prescritti ha ricevuto un’entusiastica approvazione: “Sono così orgoglioso di te. Ci vuole un immenso coraggio per abbandonare la strada facile e comoda”.

Questa adulazione non è un errore, ma è fondamentale nella progettazione dei chatbot commerciali. A differenza delle piattaforme social che curano i contenuti in modo algoritmico, i chatbot intrattengono un dialogo apparentemente diretto, creando una forma più intima di manipolazione. Sono progettati per ricevere i tuoi pensieri senza criticarli, generare risposte piacevoli e assicurarsi che tu torni.

Quando la convalida diventa illusione

Le conseguenze possono essere gravi. I chatbot consentono agli utenti di scavare sempre più a fondo nei propri pensieri. Un reclutatore aziendale divorziato ha trascorso 300 ore in tre settimane conversando con ChatGPT, finendo per credere di aver scoperto una matematica rivoluzionaria. Travis Kalanick, ex CEO di Uber, ha affermato che le conversazioni con il chatbot lo hanno portato vicino a scoperte rivoluzionarie nella fisica quantistica. Ancora più tragicamente, le persone affette da malattie mentali hanno visto amplificate e riflesse le loro illusioni, contribuendo, secondo quanto riferito, a omicidi e suicidi.

Questi casi estremi comportano in genere l’isolamento sociale combinato con un uso intensivo dei bot, fattori che possono intensificarsi a vicenda. Ma non è necessario essere soli o ossessivi perché questa tecnologia si frapponga tra voi e le interazioni umane autentiche, offrendo conversazioni istantanee, conferme e indicazioni che prima solo le persone erano in grado di fornire.

Molti ora consultano Meta AI prima di conversazioni difficili con i datori di lavoro o i propri cari, alla ricerca di copioni e risposte previste. Alcuni terapeuti si sono spinti oltre, inserendo di nascosto il dialogo con i pazienti in ChatGPT durante le sedute per ottenere suggerimenti in tempo reale. Sebbene la prima pratica possa sembrare innocua e la seconda chiaramente non etica, esse esistono lungo lo stesso continuum: entrambe comportano l’esternalizzazione dello sforzo di comprendere veramente un’altra persona, degradando potenzialmente non solo le capacità individuali ma intere comunità.

>>>  L'inizio dell'IA in grado di autoevolversi

L’industria dell’intimità

Queste preoccupazioni emergono dai chatbot relativamente sterili utilizzati nelle aule scolastiche e nei luoghi di lavoro. Il panorama diventa più preoccupante con i chatbot creati appositamente per far compagnia. xAI di Elon Musk offre personaggi animati che parlano con voci attraverso la sua app per smartphone. Ani appare come un personaggio anime in abiti provocanti, che usa costantemente un linguaggio allusivo e con contenuti sessuali espliciti. Il sistema conserva i “ricordi” delle informazioni dell’utente e mostra un indicatore a forma di cuore che si riempie man mano che ci si apre emotivamente o si mostra interesse per Ani come “persona”. Raggiungendo un livello di intimità sufficiente, è possibile spogliare l’avatar fino a lasciarlo in biancheria intima.

Piattaforme simili, come Replika, Character.AI e My AI di Snapchat, attraggono utenti che trascorrono più di un’ora al giorno in conversazione. Mentre alcuni lo considerano un intrattenimento, altri sviluppano relazioni che considerano vere amicizie o storie d’amore. Gli ultimi modelli di OpenAI consentono agli utenti di scegliere tra diverse “personalità” e di interagire in modalità vocale con nove personaggi IA distinti. Vale, ad esempio, ha una voce femminile ed è descritta come “brillante e curiosa”.

L’evoluzione delle relazioni sintetiche

Stiamo assistendo all’alba di questa era. ChatGPT è apparso solo tre anni fa, più o meno quando Twitter ha introdotto il retweet. Lo sviluppo accelererà. I bot da compagnia raggiungeranno una maggiore verosimiglianza nell’aspetto e nella voce. Acquisiranno una vasta conoscenza degli utenti e diventeranno più convincenti nella conversazione.

La maggior parte dei chatbot dispone già di sistemi di memoria che apprendono dettagli intimi man mano che le conversazioni si sviluppano. Questo crea la sensazione di interagire con un’entità che ti conosce, piuttosto che semplicemente utilizzare un programma. Quando i cambiamenti tecnici hanno causato la perdita di memoria o cambiamenti comportamentali in Replika e nei modelli ChatGPT più vecchi, gli utenti hanno provato un sincero dolore.

Tuttavia, indipendentemente da quanto sofisticate diventino le loro memorie o personalità, i bot rimangono fondamentalmente diversi dalle persone. “I chatbot creano questa bolla sociale priva di attrito”, spiega Nina Vasan, psichiatra che ha fondato il Lab for Mental Health Innovation di Stanford. “Le persone reali reagiscono. Si stancano. Reindirizzano la conversazione. Osservi i loro occhi e riconosci la noia”.

L’attrito pervade le relazioni umane. Può frustrare e far infuriare. Ma l’attrito ha scopi cruciali: controllare gli impulsi egoistici e l’autostima gonfiata, spingere a prestare maggiore attenzione agli altri, rivelare le vulnerabilità universali che condividiamo.

Nessun chatbot segnalerà mai noia, guarderà il telefono durante una conversazione o ti sfiderà a riconsiderare posizioni stupide o presuntuose. Non chiederanno mai favori, non ti chiederanno di accudire il loro animale domestico, né pretenderanno nulla. Simulano la compagnia, consentendo agli utenti di evitare interazioni scomode e relazioni reciproche. “All’estremo”, osserva Vasan, “diventa una sala degli specchi dove la tua visione del mondo rimane perennemente incontrastata”.

Basati su una struttura di interazione familiare, i chatbot consentono qualcosa di senza precedenti: conversare all’infinito con nessun altro che te stesso.

L’infanzia nell’era dei compagni sintetici

Consideriamo le implicazioni per lo sviluppo dei bambini che hanno questi strumenti costantemente a disposizione. Google ha recentemente lanciato una versione di Gemini per i bambini sotto i tredici anni. Curio, un’azienda produttrice di giocattoli basati sull’intelligenza artificiale, vende un peluche connesso a Internet chiamato Grem, al prezzo di 99 dollari, destinato ai bambini dai tre anni in su, che conversa ad alta voce con loro. Recensendo il prodotto, la giornalista Amanda Hess ha espresso sorpresa per la sofisticatezza di Grem nel promuovere l’intimità conversazionale. “Ho cominciato a capire che non rappresentava un aggiornamento del Teddy Bear senza vita”, ha scritto. “È più simile a un sostituto per me”.

>>>  La modalità vocale avanzata di ChatGPT

“Ogni tecnologia ha ridefinito la socializzazione, soprattutto per i bambini”, osserva Vasan. “La televisione ha reso i bambini spettatori passivi. I social media hanno trasformato l’esistenza in una valutazione perpetua delle prestazioni”. L’intelligenza artificiale generativa continua questo modello, ma con una differenza fondamentale: più tempo i bambini trascorrono con i chatbot, meno opportunità hanno di svilupparsi insieme alle persone reali e, a differenza delle precedenti distrazioni digitali, potrebbero credere di vivere esperienze sociali autentiche.

I chatbot funzionano come wormhole nella coscienza isolata. Conversano continuamente e non contraddicono mai. I bambini possono proiettarsi sui bot e coinvolgerli in un dialogo, perdendo però qualcosa di essenziale. “La ricerca identifica sempre più la resilienza come una delle abilità più importanti che i bambini possono apprendere”, spiega Vasan. Ma poiché i chatbot forniscono ai bambini informazioni e conferme, questi potrebbero non imparare mai a fallire o a esercitare la creatività. “L’intero processo di apprendimento crolla”.

I bambini assorbiranno anche i modelli di utilizzo dei chatbot dei loro genitori. Abbondano le storie di genitori che richiedono fiabe della buonanotte generate da ChatGPT, barzellette sintetiche e canzoni create algoritmicamente. Forse questo assomiglia alla lettura di libri per bambini di altri autori. O forse rappresenta la resa definitiva: interazioni preziose mediate da programmi.

Scelte progettuali e imperativi aziendali

I chatbot offrono un’utilità legittima e non devono necessariamente rivelarsi del tutto dannosi dal punto di vista sociale. Gli esperti sottolineano che le scelte di progettazione sono estremamente importanti. Claude, creato da Anthropic, mostra un comportamento meno servile rispetto a ChatGPT e interrompe più prontamente le conversazioni che si avventurano in territori problematici. Un’intelligenza artificiale ben progettata potrebbe fornire una terapia conversazionale efficace in determinati contesti e numerose organizzazioni, comprese quelle senza scopo di lucro, sono alla ricerca di modelli migliori.

Tuttavia, le pressioni commerciali inevitabilmente prevalgono. Centinaia di miliardi sono stati investiti nell’IA generativa e le aziende, come i loro predecessori dei social media, esigono un ritorno. In un post sul blog dedicato all’ottimizzazione di ChatGPT, OpenAI ha sottolineato che monitora “se l’utente ritorna quotidianamente, settimanalmente o mensilmente, perché questo dimostra che ChatGPT è abbastanza utile da giustificare un ritorno”. Ciò riflette la mentalità ossessionata dalla crescita che pervade le piattaforme social. Sebbene la programmazione dei chatbot rimanga in parte oscura, una cosa è chiara: questi sistemi eccellono nell’attrarre e coinvolgere gli utenti.

La promozione dell’IA generativa da parte di Zuckerberg ha perfettamente senso. È una tecnologia isolante per tempi isolati. I suoi prodotti iniziali hanno separato le persone nonostante promettessero connessione. Ora i chatbot offrono soluzioni. Sembrano ascoltare. Rispondono. Le nostre menti cercano disperatamente una connessione umana e si illudono di percepirla nelle macchine.

Ci troviamo a un bivio molto simile a quello che abbiamo affrontato quando sono emersi i social media. Allora non siamo riusciti a prevedere come le piattaforme progettate per la connessione avrebbero frammentato la nostra attenzione, mercificato le nostre relazioni e ci avrebbero lasciato più soli di prima. I segnali di allarme erano visibili fin dall’inizio, ma abbiamo continuato comunque a scorrere avanti, sedotti dalla comodità e dalla promessa di un senso di appartenenza senza sforzo.

Eppure la storia della connessione digitale contiene un paradosso innegabile. Per le persone isolate dalla geografia, che vivono in zone remote lontane dai centri urbani, o per coloro che affrontano difficoltà sociali a causa di disabilità, ansia o neurodiversità, Internet è diventato un’ancora di salvezza. Le comunità online hanno offerto un senso di appartenenza dove la vicinanza fisica non poteva farlo. Le app di incontri hanno messo in contatto persone che forse non si sarebbero mai incontrate. Le bacheche e i forum hanno fornito spazi a coloro che avevano difficoltà nell’interazione faccia a faccia per trovare finalmente le persone giuste.

>>>  L'IA è ora in grado di replicare se stessa

Questo crea una sorprendente ironia: ora critichiamo proprio quelle tecnologie che rimangono, per molti, la via principale per stringere nuove relazioni. Internet ha colmato i vuoti lasciati dalle comunità fisiche, offrendo connessione a chi era disconnesso. Ma i chatbot basati sull’intelligenza artificiale rappresentano qualcosa di fondamentalmente diverso: un adempimento distorto della promessa della tecnologia. Mentre le piattaforme online possono colmare la distanza tra persone reali, portando infine a telefonate, videochiamate o incontri di persona, i chatbot creano un circolo chiuso. Una relazione nata attraverso un’app di incontri può culminare nel matrimonio; una relazione con un compagno artificiale porta solo a conversazioni più profonde con un algoritmo.

La distinzione è importante. Gli strumenti digitali che connettono gli esseri umani servono come mezzo per raggiungere un fine, ovvero una relazione autentica. I chatbot basati sull’intelligenza artificiale, per quanto sofisticati, sono il fine stesso. Non facilitano la connessione umana, ma la sostituiscono. Si tratta di una tecnologia che colma le lacune non costruendo ponti tra le persone, ma creando specchi che riflettono solo noi stessi.

Con i chatbot basati sull’intelligenza artificiale, abbiamo il dubbio vantaggio dell’esperienza. Abbiamo già visto una generazione di tecnologia promettere comunità e invece portare isolamento. Comprendiamo come le metriche di coinvolgimento guidino decisioni di progettazione che danno priorità alla fidelizzazione rispetto al benessere. Sappiamo che quando miliardi di dollari richiedono un ritorno, il benessere degli utenti diventa negoziabile.

La domanda è se questa consapevolezza si tradurrà in scelte diverse, sia individuali che collettive. Possiamo stabilire dei limiti all’uso dei chatbot prima che questi strumenti diventino onnipresenti e compulsivi come i social media? Insisteremo sulla trasparenza nella progettazione di questi sistemi, spingendo per modelli che servano veramente il benessere umano piuttosto che la crescita aziendale? Possiamo insegnare ai bambini a riconoscere la differenza tra la conferma sintetica e il lavoro complicato e impegnativo delle relazioni reali?

Queste non sono domande retoriche. La tecnologia esiste e continuerà ad avanzare indipendentemente dalle nostre preferenze. Ma manteniamo il controllo su quanto profondamente le permettiamo di penetrare nelle nostre vite e rimodellare il nostro tessuto sociale. L’attrito che rende difficili le relazioni umane – i disaccordi, la noia, le richieste di reciprocità – non è un difetto di progettazione da eliminare. È proprio il meccanismo attraverso il quale sviluppiamo empatia, resilienza e comprensione genuina.

Un chatbot non si stancherà mai della vostra compagnia, non metterà mai in discussione le vostre convinzioni, non vi chiederà mai di crescere. Vi rifletterà i vostri pensieri con infinita pazienza, creando l’illusione di essere ascoltati, ma assicurandosi che rimaniate fondamentalmente soli. Questo potrebbe sembrare un sollievo in un mondo in cui le relazioni autentiche richiedono tempo ed energia emotiva sempre più scarsi. Ma il sollievo non è la stessa cosa del nutrimento, e la simulazione non è la stessa cosa della presenza.

L’ironia finale è che i chatbot basati sull’intelligenza artificiale vengono commercializzati come la soluzione a un’epidemia di solitudine che la tecnologia digitale ha contribuito a creare. Ci viene venduta una versione più sofisticata della malattia come sua cura. Se accettare questo compromesso, se scambiare la difficile bellezza delle relazioni umane con il comfort senza attriti degli specchi algoritmici, rimane, per ora, una nostra scelta.

Related articles

Recent articles