Dal pensato al parlato in tempo reale
-
Finora non erano disponibili studi elettrofisiologici sull'attivazione dei neuroni nelle aree motorie del parlato, data l'assenza di modelli animali.
Un elettrodo impiantato nel cervello di una persona affetta dalla sindrome del "chiuso dentro" (locked-in) ha dimostrato di essere in grado trasmettere direttamente dal cervello segnali nervosi a un sintetizzatore vocale, consentendo la produzione di alcune vocali in tempo pressoché reale (con un intervallo di 50 millisecondi).
Lo studio, descritto in un articolo su "PloS ONE", è stato condotto da ricercatori della Boston University, delle Harvard University-Massachusetts Institute of Technology, con la collaborazione di un'ampia rete di altri centri di ricerca, sotto la direzione di Frank Guenther.
Il sistema è stato testato su un paziente colpito dieci anni fa dalla sindrome del "chiuso dentro" in seguito a un'emorragia cerebrale che che ne ha distrutto pressoché tutti i motoneuroni, lasciando invece intatte la coscienza e le capacità cognitive. Il paziente di fatto è in grado solo di controllare il movimento verticale degli occhi.
Il sistema non richiede cavi o connessioni fra l'elettrodo impiantato e l'apparecchiatura esterna, e i segnali sono inviati tramite radiofrequenze captate da sensori sul cranio. Gli elettrodi impiantati sono alimentati per induzione attraverso una bobina anch'essa attaccata al capo.
Finora non erano disponibili studi elettrofisiologici sull'attivazione dei neuroni nelle aree motorie del parlato, quindi i ricercatori hanno dovuto sviluppare uno schema di codifica neurale e correlarlo a un modello esistente del controllo motorio del parlato. Secondo questo modello i neuroni della corteccia premotoria ventrale sinistra rappresentano i suoni delle parole intese in termini di "traiettorie di frequenze formanti".
In un cervello intatto queste traiettorie di frequenza sono inviate alla corteccia motoria primaria dove sono trasformate in comandi motori per articolare il parlato. Nello studio i ricercatori hanno però interpretato direttamente le traiettorie di frequenza per trasformarle in parlato grazie allo sviluppo di un modello bidimensionale dello spazio delle frequenze formanti con il quale le differenti vocali possono essere rappresentate sulla base di due frequenze formanti di base.
"Lo studio suffraga la nostra ipotesi che la corteccia premotoria rappresenti il parlato inteso come una 'traiettoria uditiva', ossia come un insieme di frequenze chiave (formanti) che varia nel tempo nel segnale acustico che ascoltiamo come parlato", ha detto Guenther. "In altre parole, possiamo predire il suono inteso direttamente dall'attività neurale nella corteccia premotoria invece di tentare di predire tutte le singole posizioni di articolazione per poi cercare di ricostruire il suono inteso, un'impresa ben più difficile dato il ridotto numero di neuroni che registriamo. Il risultato ci fornisce uno squarcio sul modo in cui i neuroni cerebrali rappresentano il parlato, qualcosa che finora non era mai stato studiato perché non esiste un modello animale del parlato."
Nel giro di cinque mesi di addestramento il paziente è riuscito a produrre i piccoli gruppi di vocali desiderate con un'accuratezza dell'89 per cento. Lo studio attuale si era focalizzato soltanto sulla produzione di un piccolo insieme di vocali, in vista di un miglioramento del sistema, in modo che possa sfruttare più elettrodi e possa procedere anche all'analisi delle consonanti.
"I nostri progetti immediati riguardano l'implementazione di un sintetizzatore in grado di produrre consonanti che sia comunque abbastanza semplice da controllare da parte del paziente. Inoltre lavoriamo a un hardware che ci permetterà di aumentare notevolmente i neuroni di cui registrare l'attività. Con almeno dieci volte più neuroni nel prossimo impianto ci aspettiamo un drastico miglioramento delle performance", ha concluso Guenther. (gg)
Fonte: www.lescienze.it