Dai sentimenti alla musica fino alle parole

Come spiegato qui, secondo la futurista Nita Farahany della Duke University, la tecnologia per decodificare le nostre onde cerebrali esiste già. E probabilmente alcune aziende stanno già testando tale tecnologia. È quanto ha affermato durante la sua recente presentazione del libro “The Battle for Your Brain” al World Economic Forum di Davos.

“Potreste rimanere sorpresi nell’apprendere che si tratta di un futuro che è già arrivato”, ha affermato Farahany nel suo intervento. “L’intelligenza artificiale ha permesso di compiere progressi nella decodifica dell’attività cerebrale in modi che non avevamo mai pensato possibili. Ciò che si pensa, ciò che si sente, sono solo dati, dati che in grandi modelli possono essere decodificati utilizzando l’intelligenza artificiale”.

I sensori possono rilevare i segnali EEG da dispositivi indossabili come: cappelli, fasce, tatuaggi posizionati dietro l’orecchio o auricolari e utilizzare dispositivi alimentati dall’intelligenza artificiale per decodificare qualsiasi cosa, dagli stati emotivi ai livelli di concentrazione, alle forme di base e persino le reazioni preconsce ai numeri (ad esempio, rubare il PIN della carta di credito a vostra insaputa).

In uno scenario distopico, ma molto probabile, un datore di lavoro potrebbe utilizzare l’intelligenza artificiale per tenere sotto controllo un lavoratore, verificare che indossi l’attrezzatura corretta e rilevare se sta sognando a occhi aperti o se sta prestando attenzione a un compito importante o non pertinente. “Quando si combina l’attività delle onde cerebrali con altre forme di tecnologia di sorveglianza”, ha spiegato Farahany, “la potenza diventa molto precisa”.

I segnali elettromiografici possono essere captati da una tecnologia aggiuntiva integrata in un orologio per tracciare l’attività cerebrale mentre trasmette i segnali lungo il braccio fino alla mano. Secondo Farahany, combinando queste tecnologie saremo in grado di controllare i nostri dispositivi elettronici con il pensiero.

Ha proseguito:

“Nel prossimo futuro, e intendo dire nel recente futuro, questi dispositivi diventeranno il modo comune di interagire con tutti gli altri dispositivi. È un futuro eccitante e promettente, ma anche spaventoso”. La sorveglianza del cervello umano può essere potente, utile e proficua: può trasformare il posto di lavoro e migliorare le nostre vite, ma dà anche la possibilità distopica di essere usata per sfruttare e portare in superficie il nostro io più segreto”.

>>>  Un cervello umano replicato con il machine learning

Farahany è intervenuto all’incontro di Davos per sollecitare un impegno a favore delle libertà cognitive, compresi temi come la privacy mentale e la libertà di pensiero. Quando una persona usa questa tecnologia per comprendere meglio la propria salute mentale o il proprio benessere, ha affermato che ha il potenziale per essere benefica e persino fungere da indicatore di allarme per potenziali problemi medici. Inoltre, man mano che un maggior numero di persone monitora le proprie onde cerebrali, le serie di dati aumentano, consentendo alle aziende di estrarre più informazioni dagli stessi dati.

Ma questo ha un rovescio della medaglia. “Un numero sempre maggiore di informazioni sul cervello”, ha aggiunto l’autrice, “lo renderà trasparente”.

Decodificare la musica che si sta ascoltando

Un altro studio, pubblicato sulla rivista Scientific Reports, ha utilizzato una combinazione di due tecniche non invasive per tracciare l’attività cerebrale di una persona durante l’ascolto della musica: l’elettroencefalogramma (EEG), che registra ciò che accade nel cervello in tempo reale, e la risonanza magnetica funzionale (fMRI), che misura il flusso sanguigno nell’intero cervello. Le informazioni sono state trasformate per ricostruire e identificare il brano musicale utilizzando un modello di rete neurale basato sul deep learning.

Poiché il linguaggio naturale e la musica sono entrambi costituiti da segnali acustici complicati, è possibile adattare il modello alla traduzione del parlato. Questa linea di ricerca spera infine di tradurre il pensiero, il che potrebbe essere un aiuto significativo in futuro per coloro che hanno difficoltà a comunicare, come le persone affette dalla sindrome del chiavistello.

Il dottor Daly della Essex School of Computer Science and Electronic Engineering, che ha guidato la ricerca, ha dichiarato: “Un’applicazione sarebbe l’interfacciamento cervello-computer (BCI), che fornisce un canale di comunicazione direttamente tra il cervello e un computer. Ovviamente si tratta di una strada ancora lunga, ma alla fine speriamo che, se riusciremo a decodificare il linguaggio, potremo usarlo per costruire ausili per la comunicazione, il che rappresenta un altro passo importante verso l’obiettivo finale della ricerca sulle BCI e potrebbe, un giorno, fornire un’ancora di salvezza alle persone con gravi disabilità di comunicazione”.

>>>  Samsung e Harvard puntano a "copiare e incollare" il cervello su chip di memoria

Lo studio ha previsto il riutilizzo di dati fMRI ed EEG ottenuti da partecipanti che ascoltavano una sequenza di 36 brani di semplice musica per pianoforte che variavano per tempo, armonia e ritmo. La musica veniva suonata per 40 secondi alla volta. I 36 brani sono stati selezionati nell’ambito di un precedente progetto dell’Università di Reading. Il modello ha identificato con successo il brano musicale con una percentuale di successo del 71,8% utilizzando questi set di dati combinati.

Indovinare le parole del cervello

I ricercatori della divisione di ricerca sull’intelligenza artificiale di Meta hanno invece deciso di studiare la possibilità di decodificare frasi complete dall’attività neurale di una persona, senza dover ricorrere a un pericoloso intervento chirurgico al cervello. In un articolo pubblicato sul server di pre-print arXiv, i ricercatori hanno descritto come hanno creato un sistema di intelligenza artificiale in grado di prevedere le parole che una persona sta ascoltando in base all’attività cerebrale, catturata con interfacce cervello-computer non invasive.

“È ovviamente estremamente invasivo inserire un elettrodo nel cervello di una persona”, ha spiegato Jean Remi King, ricercatore del Facebook Artificial Intelligence Research (FAIR) Lab. “Abbiamo quindi voluto provare a utilizzare registrazioni non invasive dell’attività cerebrale. L’obiettivo era quello di costruire un sistema di intelligenza artificiale in grado di decodificare le risposte cerebrali alle storie parlate”.

I ricercatori hanno utilizzato quattro serie di dati preesistenti sull’attività cerebrale di 169 individui mentre ascoltavano registrazioni di parole. Per registrare ogni volontario sono stati utilizzati sia la magneto che l’elettroencefalografia (MEG ed EEG), che utilizzano vari tipi di sensori per rilevare l’attività elettrica del cervello dall’esterno del cranio.

Nel loro approccio, i dati cerebrali e audio sono stati divisi in segmenti di tre secondi e inviati a una rete neurale, che ha poi cercato modelli che potessero collegare entrambi. Hanno poi testato l’intelligenza artificiale su nuovi dati dopo averla addestrata per molte ore su questi.

Per uno dei set di dati MEG, il sistema ha ottenuto la migliore prestazione. La parola corretta era infatti presente il 72,5% delle volte tra i primi 10 termini che avevano la massima probabilità di essere collegati al segmento di onde cerebrali.

>>>  Deepfake per i movimenti

Anche se questo dato può non sembrare impressionante, va tenuto presente che è stato scelto da un vocabolario di 793 parole. Nell’altro set di dati MEG, il sistema ha ottenuto un punteggio del 67,2%, ma ha ottenuto risultati peggiori nei set di dati EEG, con precisioni tra i primi dieci posti di appena il 31,4 e il 19,1.

Sebbene sia ovvio che questa tecnologia sia ancora molto lontana dall’essere utile, rappresenta un importante progresso su un tema impegnativo. Decifrare l’attività cerebrale in questo modo è difficile, poiché le BCI non invasive hanno un rapporto segnale/rumore significativamente peggiore. Tuttavia, se avrà successo, questo approccio potrebbe portare a una tecnologia che verrà utilizzata molto più frequentemente.

Tuttavia, non tutti sono convinti che il problema possa essere risolto. Secondo Thomas Knopfel dell’Imperial College di Londra, l’uso di questi metodi non invasivi per ascoltare i pensieri di una persona è come “cercare di trasmettere un film in HD attraverso i vecchi modem telefonici analogici” e si chiede se saranno mai abbastanza precisi per un uso pratico.

Lo studio condotto dal team Meta è ancora nelle fasi iniziali, quindi c’è ancora spazio per lo sviluppo. E chiunque riesca a padroneggiare la scansione cerebrale non invasiva avrà senza dubbio molti incentivi a provarci, viste le prospettive commerciali che lo attendono.

La nostra mente è il luogo privato più importante che abbiamo. Se qualcuno può sapere cosa pensiamo, significa che non possiamo più essere liberi e che potremmo essere completamente controllati. Anche se leggere ciò che c’è nella mente di qualcuno potrebbe essere utile per alcune malattie e può aiutare le persone che non sono in grado di comunicare a migliorare la loro vita, se questa tecnologia venisse usata per monitorare le nostre azioni, potrebbe portare a una società più distopica di quella dell’IA.