Un lato inquietante dell’Intelligenza Artificiale

Secondo questo articolo, Amazon ha svelato qualcosa di singolare su una nuova funzionalità di Alexa durante il Day 2 della sua conferenza sull’intelligenza artificiale del 2022. Durante la presentazione, un bambino ha chiesto se la nonna potesse finire di leggere la fiaba de Il Mago di Oz mentre la demo iniziava a scorrere, Alexa risponde “Ok”. Tuttavia, qualche secondo dopo la voce che si sentiva era più simile a quella umana, anche se non lo era. Si trattava di una replica della voce della nonna defunta del bambino, generata da un’intelligenza artificiale.

La voce è stata creata utilizzando meno di un minuto di registrazione della voce originale della nonna, secondo quanto dichiarato da Rohit Prasad, vicepresidente senior e responsabile scientifico di Alexa presso Amazon, intervenuto sul palco.

“Questi aspetti sono diventati più importanti in questi tempi di pandemia, quando molti di noi hanno perso qualcuno che amavano”, ha affermato Prasad. “Anche se l’IA non può eliminare il dolore della perdita, può sicuramente far durare i ricordi”.

Per ora si tratta di una semplice dimostrazione tecnica. Oltre al fatto che i programmatori di Alexa abbiano affrontato la questione come un’attività di conversione vocale piuttosto che di generazione del parlato, non si sa molto di più sul progetto. Amazon non ha risposto alle domande sulla funzionalità del prodotto, sui tempi di implementazione e su chi potrà accedervi. Tuttavia, le implicazioni di una simile tecnologia potrebbero sembrare inquietanti.

“Stiamo indubbiamente vivendo nell’era d’oro delle I.A., dove i nostri sogni e la fantascienza stanno diventando realtà”, ha dichiarato Prasad alla conferenza. In ogni caso, è difficile dire se questo sarà utile o pericoloso.

>>>  L'IA può migliorare la produttività ma ridurre le competenze umane

Secondo Maura Grossman, professoressa di ricerca presso la University of Waterloo School of Computer Science e esperta di etica delle I.A., è chiaro se sia un bene o un male.

“Si può osservare il rischio di deep fake, di qualcuno che prende la tua voce e all’improvviso mi dice di trasferire denaro dal tuo conto o altro”, spiega l’autrice. “Quindi penso che ci si debba chiedere: ‘Cosa potrebbe andare bene con questa tecnologia e, domanda ancora più importante, cosa potrebbe andare storto?

Tuttavia, forse ci sono anche aspetti positivi. Come ha spiegato la Grossman, una sua cara amica si è recata da un medium per comunicare con il marito defunto. Inizialmente la Grossman era terrorizzata e temeva che la sua amica venisse ingannata o subisse un qualche tipo di trauma psicologico, ma la medium l’ha davvero aiutata a superare la perdita. Tuttavia, non è la prima volta che l’intelligenza artificiale cerca di riportare in vita persone morte. Deep Nostalgia di MyHeritage è stata la prima a implementare un’I.A. per animare vecchie foto di famiglia comprese le persone defunte. Immaginate di fondere insieme audio e video: l’impatto emotivo sarebbe notevole.

“Era una cosa così negativa visitare una medium ogni due settimane e conversare con il marito defunto?”, si chiede Grossman.

Anche se non tutti hanno i soldi per andare da un sensitivo (o comunque credono in questa possibilità, anche se si tratta di qualcosa di diverso da un algoritmo artificiale conosciuto), un’I.A. in grado di imitare perfettamente una persona cara defunta potrebbe offrire un’esperienza simile a tutti coloro che sono in lutto, ma si tratta solo di una distorsione della realtà. Apparentemente potrebbe aiutare, ma potrebbe portare a ingannare i sentimenti delle persone e ad alterare la loro percezione della realtà. Alcuni rischierebbero di aggrapparsi a una simulazione che crea dipendenza.

>>>  I 5 modi inquietanti in cui l'IA può essere utilizzata

Mentre a molti piacerebbe provare questa funzione, per altri questa invenzione sembra uscita dalla serie fantascientifica distopica Black Mirror. È quello che è successo in un episodio intitolato “Torna da me”, in cui una donna assume una società per creare un clone artificiale del suo fidanzato defunto. All’inizio il clone sembra essere una copia esatta, ma quando la donna nota sempre più piccole discrepanze nel suo comportamento, si irrita sempre di più e alla fine lo chiude in soffitta.

In modo simile, una giornalista diventata imprenditrice tecnologica (Eugenia Kuyda) ha creato Luka, un bot che utilizzava le immagini, i testi e l’audio di un amico purtroppo morto in un incidente d’auto per ricostruire una sua replica con cui elaborare il lutto grazie a una rete neurale di Google. Questo progetto secondario si è evoluto nell’app Replika, che consente a chiunque di creare un “compagno virtuale con l’intelligenza artificiale” inserendo le proprie informazioni personali.

Microsoft ha ricevuto l’autorizzazione ad adottare un approccio simile nel 2020 per sviluppare un chatbot in grado di imitare le azioni e la voce di un’altra persona utilizzando foto, dati vocali, post sui social media, messaggi elettronici e lettere scritte. Un’entità passata o presente può corrispondere alla singola persona utilizzando bot con modelli 2D o 3D.

Ad ogni modo, sembra che Microsoft non abbia intenzione di implementare realmente questo progetto. Il brevetto è stato depositato nel 2017, quindi “è antecedente agli studi etici sull’I.A. che conduciamo ora”, ha dichiarato Tim O’Brien, responsabile dell’etica dell’I.A. presso Microsoft, dopo che il brevetto ha fatto notizia nel 2021. E certamente è inquietante, ha continuato.

>>>  Come gli LLM recuperano alcune conoscenze memorizzate

Un altro problema immediato relativo all’impiego dell’intelligenza artificiale per sostituire persone specifiche viene sollevato dal professore associato Angeliki Kerasidou del Centro Ethox dell’Università di Oxford.

“Una persona non smette di crescere”, ha affermato. “Il bot sarà per sempre statico, anche se si può imparare dalle interazioni. Non stiamo parlando di una sorta di super intelligenza. Potremmo quindi essere in grado di riprodurre alcune azioni attive, ma non credo che saremo in grado di riprodurre la persona in sé”.

Tuttavia, questo potrebbe essere un aspetto positivo. Rendersi conto che un bot è statico può aiutare le persone a capire che non stanno parlando con una persona reale, ma con una simulazione. In questo modo si evita di rimanere intrappolati emotivamente da qualcosa di irreale che potrebbe portare a una relazione patologica. Immaginate se un’intelligenza artificiale fosse in grado di replicare perfettamente una persona cara: come potreste fare a meno di lui o di lei?