È in grado di convertire i pensieri in testo senza una formazione approfondita
Gli scienziati hanno creato versioni migliorate di un “decodificatore cerebrale” che impiega l’intelligenza artificiale per trasformare i pensieri in testo.
Secondo questo articolo, il loro nuovo algoritmo di conversione può addestrare rapidamente un decodificatore esistente sul cervello di un’altra persona, come riportato nel loro nuovo studio. Secondo gli scienziati, questi risultati potrebbero aiutare le persone affette da afasia, un disturbo cerebrale che influisce sulla capacità di comunicare.
Un decodificatore cerebrale utilizza l’apprendimento automatico per convertire i pensieri di una persona in testo, basandosi sulle risposte del suo cervello in base alle storie che ha ascoltato. Il problema delle precedenti versioni del decodificatore era che i partecipanti dovevano ascoltare storie all’interno di una macchina per la risonanza magnetica per molte ore, e questi decodificatori funzionavano solo per le persone su cui erano stati addestrati.
“Le persone affette da afasia hanno spesso difficoltà a comprendere il linguaggio e a produrlo”, ha spiegato il coautore dello studio Alexander Huth, neuroscienziato computazionale presso l’Università del Texas di Austin (UT Austin). “Se questo è il caso, potremmo non essere in grado di costruire modelli per il loro cervello osservando come il loro cervello risponde alle storie che ascoltano”.
Nella nuova ricerca, pubblicata sulla rivista Current Biology, Huth e il coautore Jerry Tang, studente laureato alla UT Austin, hanno studiato come superare questa limitazione. In questo studio ci siamo chiesti: “Possiamo fare le cose in modo diverso?”. ha dichiarato Huth. “Possiamo essenzialmente trasferire un decodificatore che abbiamo costruito per il cervello di una persona al cervello di un’altra persona?”.
I ricercatori hanno inizialmente addestrato il decodificatore cerebrale su alcuni partecipanti di riferimento usando il metodo lungo, raccogliendo dati di risonanza magnetica funzionale mentre i partecipanti ascoltavano 10 ore di storie radiofoniche.
Poi hanno addestrato due algoritmi di conversione sui partecipanti di riferimento e su un diverso gruppo di partecipanti “target”: uno utilizzando i dati raccolti mentre i partecipanti trascorrevano 70 minuti ad ascoltare storie radiofoniche e l’altro mentre guardavano 70 minuti di cortometraggi muti Pixar non correlati alle storie radiofoniche.
Utilizzando una tecnica chiamata allineamento funzionale, il team ha mappato il modo in cui il cervello dei partecipanti di riferimento e di quelli ‘target’ rispondeva alle stesse storie audio o cinematografiche. Hanno poi usato queste informazioni per addestrare il decodificatore a lavorare con il cervello dei partecipanti ‘target’, senza dover raccogliere molte ore di dati di addestramento.
Il team ha poi testato i decodificatori utilizzando una breve storia che nessuno dei partecipanti aveva mai sentito prima. Sebbene le previsioni del decodificatore siano state leggermente più accurate per i partecipanti di riferimento originali rispetto a quelli che hanno utilizzato i convertitori, le parole previste dalle scansioni cerebrali di ciascun partecipante erano comunque semanticamente correlate a quelle utilizzate nella storia di prova.
Per esempio, in una sezione del racconto di prova qualcuno parlava di un lavoro che non gli piaceva, dicendo: “Faccio la cameriera in una gelateria. Quindi… non è… non so dove voglio arrivare, ma so che non è quello”. Il decodificatore che utilizza l’algoritmo del convertitore addestrato sui dati del film ha previsto: “Facevo un lavoro che ritenevo noioso. Dovevo prendere ordini e non mi piacevano, quindi ci lavoravo ogni giorno”. Non si tratta di una corrispondenza esatta – il decodificatore non legge i suoni esatti che le persone sentivano, ha spiegato Huth – ma le idee sono correlate.
“La cosa davvero sorprendente e bella è che possiamo farlo anche senza usare i dati linguistici”, ha commentato Huth a Live Science. “Così possiamo avere dati che raccogliamo proprio mentre qualcuno guarda video muti, e poi possiamo usarli per costruire questo decodificatore linguistico per il suo cervello”.
L’uso dei convertitori basati sui video per trasferire i decodificatori esistenti alle persone afasiche può aiutarle a esprimere i loro pensieri, hanno sottolineato i ricercatori. Lo studio rivela anche una certa sovrapposizione tra i modi in cui gli esseri umani rappresentano le idee dal linguaggio e dalle narrazioni visive nel cervello.
“Questo studio suggerisce che esiste una rappresentazione semantica che non si preoccupa di quale modalità provenga”, ha dichiarato a Live Science Yukiyasu Kamitani, neuroscienziato computazionale dell’Università di Kyoto non coinvolto nello studio. In altre parole, aiuta a rivelare come il cervello rappresenti certi concetti nello stesso modo, anche quando sono presentati in formati diversi.
I prossimi passi del team sono testare il convertitore su partecipanti con afasia e “costruire un’interfaccia che li aiuti a generare il linguaggio che desiderano”, ha detto Huth.
Se da un lato questa innovazione nella tecnologia di decodifica cerebrale ha applicazioni promettenti per assistere le persone con disturbi della comunicazione, dall’altro gli esperti avvertono che tali progressi sollevano anche importanti considerazioni etiche. I sostenitori della privacy e i neuroeticisti sottolineano che, man mano che questi decodificatori diventano più sofisticati, emergeranno questioni relative alla privacy mentale.
Con l’avanzare dei decodificatori cerebrali, i legislatori e gli esperti di etica suggeriscono la necessità di quadri normativi che consentano al tempo stesso il progresso medico e la tutela della libertà cognitiva degli individui. La comunità scientifica, nel frattempo, rimane cautamente ottimista sulla possibilità di sfruttare il potenziale di questa tecnologia e di mitigare i rischi attraverso un’implementazione e una supervisione ponderate.