I ricercatori hanno scoperto quanto sia semplice e probabilmente sta già accadendo

I nostri ricordi possono spesso sembrare qualcosa di vivido e solido poiché sono la base della nostra identità, parte della nostra personalità e le cose più significative della nostra vita. Tuttavia, le cose non sono sempre come pensiamo che siano poiché alcuni eventi che crediamo siano andati in un certo modo, potrebbero essere stati diversi da come pensiamo, o peggio, potrebbero non essere mai esistiti.

I ricordi cambiano nel corso degli anni e, con il passare del tempo, tendono ad essere influenzati da altri ricordi e sentimenti. Ma ancora peggio, possono essere manipolati da altri, e il peggio è quando viene fatto volontariamente.

A questo proposito, un team di ricercatori delle università della Germania e del Regno Unito hanno pubblicato una ricerca che descrive in dettaglio uno studio in cui sono riusciti a impiantare e rimuovere i falsi ricordi in soggetti sottoposti a test.

In pratica, è relativamente facile impiantare falsi ricordi, ma liberarsene è la parte difficile. Nello studio, condotto su 52 soggetti che hanno accettato di consentire ai ricercatori di tentare di impiantare loro un falso ricordo d’infanzia nelle loro menti durante diverse sessioni, grazie all’assistenza critica dei genitori dei soggetti; dopo un po’, è accaduto che molti dei soggetti hanno iniziato a credere ai nuovi falsi ricordi.

I ricercatori hanno scoperto che l’aggiunta di una persona di fiducia (in questo caso i genitori dei soggetti), a cui è stato chiesto di affermare che le storie false fossero vere, ha reso più facile sia incorporare sia rimuovere i falsi ricordi.

Le tecniche di inserimento di falsi ricordi sono in giro da un po’, ma non c’è stata molta ricerca per invertire tali tecniche, ma è stata la prima volta che hanno cercato di farlo senza rivelare ai soggetti ciò che era successo.

Hanno scoperto che due metodi chiave hanno aiutato i partecipanti a differenziare i propri ricordi reali da quelli falsi:

  • Chiedere loro di ricordare la fonte del ricordo;
  • Spiegare loro che essere spinti a ricordare qualcosa più volte può indurre falsi ricordi.
>>>  Dalle Smart City alle Sustainable City

“Se si riescono a portare le persone fino a questo punto, in cui sono consapevoli, li si può aiutare a rimanere maggiormente legati ai propri ricordi e alle proprie memorie, ed escludere così l’inflenza da altre fonti”, ha spiegato la psicologa Aileen Oeberst dell’Università di Hagen in Germania.

Oeberst e i suoi colleghi non hanno sradicato completamente i falsi ricordi, ma ne hanno fatto scendere la frequenza a circa il livello della prima sessione, quando hanno menzionato per la prima volta l’evento falso (circa un tasso di accettazione che va dal 15 al 25%). Un anno dopo, il 74% dei partecipanti ha rifiutato i falsi ricordi o ha detto di non averne memoria.

Comunque sia, non ci sono molti casi d’uso positivi nell’ impiantare falsi ricordi, ma tali influenze succedono ogni giorno con i social media come Facebook, perché tutto quello che fai su un social network viene registrato e codificato per creare un’immagine dettagliata di te. Questi dati vengono utilizzati per determinare quali pubblicità vedere, dove le vederle e quanto frequentemente appaiono. E quando qualcuno nella nostra rete di fiducia fa un acquisto attraverso un annuncio, è più probabile che si inizi a vedere la stessa cosa.

Bisogna dire che il nostro cervello è più bravo ad adattarsi alla realtà di quanto gli attribuiamo. Nel momento in cui sappiamo che c’è un sistema che si adatta a noi, più pensiamo che il sistema dica qualcosa su di noi come esseri umani.

Un team di ricercatori di Harvard ha scritto riguardo a questo fenomeno nel 2016:

In uno studio che abbiamo condotto con 188 studenti universitari, abbiamo scoperto che i partecipanti erano più interessati ad acquistare un Groupon per un ristorante pubblicizzato come ricercato quando pensavano che l’annuncio fosse stato indirizzato a loro in base a specifici siti web che avevano visitato durante un compito precedente (navigare sul web per un itinerario di viaggio), rispetto a quando pensavano che l’annuncio fosse indirizzato in base ai dati demografici (la loro età e sesso) o non indirizzato affatto.

In breve, non solo gli annunci mirati stimolano le persone a comprare di più secondo i loro interessi specifici, ma succede che gli utenti tendono ad essere influenzate da ciò che pensano possa loro piacere. Vale a dire, modificano la loro preferenze e tendono a gradire ciò che gli annunci mostrano poiché inconsciamente pensano che l’algoritmo li conosca meglio, quindi la gente riconosce il merito della sua scelta.

Questo potente effetto degli annunci mirati dal punto di vista comportamentale sulle percezioni di sé ha tuttavia i suoi limiti. Poiché il targeting comportamentale deve essere per lo meno abbastanza accurato (cioè, plausibilmente collegato al comportamento passato dei consumatori) o la gente lo rifiuterà. Inoltre, è importante notare che gli effetti sulle percezioni di sé dipendono dal fatto che i consumatori siano consapevoli del fatto che un dato annuncio era o non era legato al loro comportamento passato.

Quindi, se siamo così facilmente manipolati attraverso esposizioni a piccoli annunci nel nostro feed di Facebook, immaginate cosa potrebbe accadere se gli inserzionisti iniziassero a manipolare i personaggi e i volti delle persone di cui ci fidiamo?

Usando i Deepfakes, per esempio, le aziende potrebbero mostrare annunci con persone che conosciamo o una celebrità che ci piace, basandosi sui dati recuperati dai social media, per esempio.

È tutto un divertente quando la posta in gioco riguarda solo un’azienda di social media che usa l’intelligenza artificiale per convincerti a comprare delle cose. Ma cosa succede quando la manipolazione riguarda qualcosa di più serio come le informazioni?

La polizia, ad esempio, usa una serie di tecniche per sollecitare le confessioni. E le forze dell’ordine non hanno generalmente alcun obbligo di dire la verità quando lo fanno. Infatti, è perfettamente legale per i poliziotti, nella maggior parte dei posti, mentire apertamente per ottenere una confessione.

Considerate che una tecnica popolare consiste nel dire a un sospettato che i suoi amici, i suoi familiari ed eventuali cospiratori hanno già informato la polizia che sono stati loro a commettere il crimine. Se si riesce a convincere qualcuno che le persone che rispetta e a cui tiene credono che abbia fatto qualcosa di sbagliato, è più facile per lui accettarlo come un fatto.

Comunque, è bene sapere che ci sono già dei metodi che possiamo usare per estrarre questi falsi ricordi. Come ha scoperto il team di ricerca europeo, il nostro cervello tende a lasciare andare i falsi ricordi quando viene messo alla prova, ma si aggrappa a quelli veri. Questo li rende più resistenti agli attacchi di quanto si possa pensare.

Tuttavia, ci mette perennemente sulla difensiva. Attualmente, la nostra unica difesa contro la falsificazione della memoria da parte dell’I.A. è quella di prevederla o di farsi aiutare dopo che è successo. Con i Deepfake e abbastanza tempo, si può convincere qualcuno di qualsiasi cosa, purché si riesca a trovare un modo per fargli guardare i vostri video.

La nostra unica vera difesa è sviluppare una tecnologia che veda attraverso i Deepfake e altri media manipolati dall’I.A.. Con le interfacce cervello-computer destinate a colpire i mercati di consumo nei prossimi anni e i media generati dall’I.A. che diventeranno sempre meno distinguibili dalla realtà, ci stiamo avvicinando a un punto di non ritorno per la tecnologia.

Il problema della verità si scontra con la percezione di sé: da un lato è ancora più difficile distinguere ciò che è reale o meno, ma dall’altro lato, dobbiamo combattere contro le false percezioni, ossia cosa ci piace davvero e cosa no. Non solo ciò che è vero o no. Tuttavia, dovremmo anche essere consapevoli delle persone in malafede che potrebbero usare la scusa della manipolazione per dire che siamo stati manipolati anche dove non lo siamo, poiché sono solo contro un determinato comportamento.

Fonte thenextweb.com