Sindrome locked-in: verso un'interfaccia cervello-macchina per comunicare

Lo studio

Sindrome locked-in: verso un'interfaccia cervello-macchina per comunicare

di redazione
Gli scienziati della Northwestern University hanno acquisto nuove conoscenze su come il cervello elabora il linguaggio. Le informazioni potrebbero portare allo sviluppo di una interfaccia cervello-macchina in grado di parlare in modo più naturale degli attuali macchinari

Locked-in, chiusi dentro, bloccati nel loro mondo. Sono dedicati a loro, alle persone completamente paralizzate, gli sforzi dei ricercatori della Northwestern University per realizzare una interfaccia cervello-macchina in grado di tradurre in linguaggio corrente tutte le parole non dette. Un dispositivo capace di “parlare” in modo più naturale di quelli finora disponibili, per esempio i sistemi di comunicazione oculare.

Per costruire un macchinario tanto sofisticato, gli scienziati hanno dovuto approfondire le conoscenze sul modo in cui il cervello codifica il linguaggio.  

E hanno condotto alcuni esperimenti su pazienti sottoposti da svegli a un intervento chirurgico al cervello per la rimozione di un tumore. A questi pazienti veniva chiesto di leggere alcune parole su uno schermo mentre una serie di elettrodi posizionati nel cervello registravano i segnali cerebrali. Da questa analisi i ricercatori hanno scoperto l’esistenza di due processi coinvolti nel linguaggio localizzati in due aree diverse del cervello: uno si occupa di elaborare i fonemi, i suoni della parola che abbiamo intenzione di pronunciare, l’altro dei movimenti della bocca, della lingua, del palato che dobbiamo eseguire per emettere quei suoni. In questo secondo processo è coinvolta la corteccia prefrontale, mentre la corteccia frontale inferiore sembrerebbe coinvolta in entrambi i processi. 

Queste informazioni saranno preziose per gli ingegneri che dovranno realizzare il dispositivo in grado di elaborare i segnali provenienti da queste due aree del cervello e trasformarli in parole. 

La ricerca, pubblicata sul Journal of Neuroscience, potrebbe essere utile anche alle persone con altri tipi di disturbi del linguaggio come l’aprassia che consiste nella difficoltà di tradurre in parole i messaggi del cervello e che si osserva in alcuni bambini o adulti colpiti da un ictus. 

Il linguaggio è composto da suon singoli, chiamati fonemi, che sono prodotti dai movimenti coordinati delle labbra, della lingua, del palato e della laringe. 

Ma gli scienziati non sanno ancora esattamente come questi movimenti, chiamati gesti articolatori vengano pianificati nel cervello. In particolare non è mai stato del tutto chiarito come la corteccia cerebrale controlli la produzione del linguaggio.

I ricercatori hanno ipotizzato che le aree coinvolte nel movimento del linguaggio avessero una organizzazione analoga a quelle coinvolte nel movimento degli arti, con la corteccia prefrontale coinvolta nei gesti articolarotori e le aree corticali di livello superiore coinvolte maggiormente nell’elaborazione di fonemi. 

E i risultati degli esperimenti in sala operatoria gl hanno dato ragione

«Abbiamo studiato due parti del cervello che aiutano a produrre parole -  ha detto Marc Slutzky, neurologo a capo dello studio - La corteccia precentrale rappresentava i gesti in misura maggiore rispetto ai fonemi: la corteccia frontale inferiore, che è un'area del linguaggio di livello superiore, rappresentava sia i fonemi che i gesti».