Impianto cerebrale trasforma i segnali in sintesi vocale

cervello umano photo courtesy 3d by author

Gli hanno sviluppato un impianto che interpreta i segnali nel cervello e li converte in un discorso comprensibile e sintetizzato. Questo innovativo tecnologico potrebbe un giorno dare voce a persone che, altrimenti, non sarebbero in grado di .

Questo lavoro è stato ideato e realizzato dai ricercatori dell’Università della California, a San Francisco, che hanno testato il loro prototipo su cinque volontari esperti in letture per bambini. Gli elettrodi sono stati utilizzati per misurare le tensioni cerebrali durante la narrazione, e poi abbinati al parlato.

La parte cruciale di questo particolare approccio è che, piuttosto che tentare di leggere i pensieri, mira a leggere gli sforzi del cervello per controllare le labbra, la mascella e la laringe. Anche le persone che hanno perso la di parlare possono pensare di formare le loro bocche per produrre parole.

Mentre il sistema è tutt’altro che perfetto al momento – una media del 69 percento delle parole può essere compresa correttamente, date 25 opzioni tra cui scegliere – l’attenzione sulla simulazione del tratto vocale ha portato ad un significativo passo avanti in accuratezza.

“La relazione tra i del tratto vocale e i suoni del discorso che vengono prodotti è complicata”, afferma il ricercatore capo Gopala Anumanchipalli. “Abbiamo pensato che se questi centri del linguaggio nel cervello codificano i piuttosto che i suoni, dovremmo provare a fare lo stesso nel decodificare questi segnali”.

Quello di Anumanchipalli e dei suoi colleghi sono due reti neurali: una che combina i segnali cerebrali con i movimenti del tratto vocale e una che trasforma quei movimenti in un discorso sintetizzato.

Le parole brevi e le frasi semplici funzionano meglio. A mano a mano che le frasi diventano più complicate, il nuovo traduttore sintetizzato non funziona altrettanto bene – sebbene rappresenti comunque un progresso impressionante.

Il nuovo impianto ha mostrato segni di essere in grado di comprendere frasi che non sono state incluse nei dati di allenamento.

Inoltre, gli scienziati hanno notato alcune sovrapposizioni tra i modelli di diversi partecipanti allo studio – ciò dovrebbe rendere più facile e veloce la formazione di nuovi sistemi su questo tipo di persone.

“Abbiamo ancora un modo per mimare perfettamente la lingua parlata”, dice un altro membro del team, Josh Chartier. “Siamo abbastanza bravi a sintetizzare suoni vocali più lenti come ‘sh’ e ‘z’ oltre a mantenere i ritmi e le intonazioni della voce e il genere e l’identità del relatore, ma alcuni dei suoni più bruschi come ‘b’s e’ p’s un po ‘sfocato.

“Tuttavia, i livelli di accuratezza che abbiamo prodotto qui sarebbero un incredibile miglioramento delle comunicazioni in tempo reale rispetto a quanto attualmente disponibile.”

Potrebbe passare del tempo prima che un dispositivo implantare come questo sia pronto a dare una voce generata artificialmente a coloro che hanno perso la naturale capacità di parlare, ma è una svolta molto incoraggiante.

Un articolo sulla ricerca è stato pubblicato sulla rivista Nature . Puoi ascoltare alcuni dei suoni generati nel video qui sotto.

Fonte: Università della California, San Francisco