Dopo di anni di studi e di miglioramenti, ne è arrivato uno che potrebbe potenzialmente svoltare la vita di coloro che hanno perso completamente la capacità di parlare: è stato sviluppato un nuovo algoritmo che permette la costruzione di neuroprotesi capaci di trasformare in tempo reale i segnali cerebrali in un discorso udibile e naturale. A rivelarlo è un nuovo studio condotto da scienziati dell’Università di Berkeley della California (UC), sottoposto a revisione paritaria e pubblicato sulla rivista scientifica Nature Neuroscience. Nonostante in precedenza fossero necessari circa otto secondi per generare una frase, con il nuovo sistema – costruito tramite uno studio clinico e con l’aiuto dell’intelligenza artificiale – il primo suono viene emesso entro un secondo dall’intenzione di parlare. «Abbiamo scoperto di poter decodificare i dati neurali e, per la prima volta, abilitare uno streaming vocale quasi sincrono. Il risultato è una sintesi vocale più naturale e fluida», ha affermato Gopala K. Anumanchipalli, professore associato di Ingegneria Elettrica e Informatica presso l’UC Berkeley e co-ricercatore principale dello studio.
Persone affette da gravi forme di paralisi, come nella sclerosi laterale amiotrofica (SLA) o in seguito a ictus, possono perdere completamente la capacità di parlare. Le interfacce cervello-computer avevano aperto una strada per restituire loro una forma di comunicazione, ma fino a oggi le soluzioni disponibili erano lente, macchinose e spesso limitate alla traduzione in testo. I tentativi precedenti di sintesi vocale soffrivano infatti di latenza eccessiva, rendendo impossibile una conversazione fluida. Per superare questo limite, allora, i ricercatori californiani hanno utilizzato modelli avanzati di intelligenza artificiale, simili a quelli che alimentano assistenti vocali come Siri e Alexa, per sviluppare un sistema in grado di decodificare i segnali neurali in flusso continuo. In particolare, la tecnologia è stata testata nell’ambito di uno studio clinico condotto presso l’UC, dove un soggetto affetto da paralisi ha potuto “parlare” pronunciando frasi silenziose che venivano trasformate in voce quasi simultaneamente.
Campionando i segnali dalla corteccia motoria – l’area del cervello che controlla i movimenti del tratto vocale – tali impulsi sono stati poi interpretati da un modello di IA che li ha tradotti in suoni. Per addestrare il sistema, i ricercatori hanno chiesto alla paziente, Ann, di leggere frasi sullo schermo e provare a pronunciarle mentalmente. Non avendo output vocali reali, l’algoritmo ha quindi ricostruito l’audio mancante usando modelli pre-addestrati, anche con la voce di Ann registrata prima dell’infortunio. Il risultato è una sintesi fluida, continua e personalizzata, che la stessa paziente ha definito «più controllabile» rispetto a metodi precedenti. Inoltre, il sistema è stato testato anche su parole nuove, dimostrando di saper generalizzare oltre i dati di addestramento. «È un framework rivoluzionario», ha commentato il coautore Cheol Jun Cho, aggiungendo che l’IA non si limita a ripetere i dati appresi, ma impara i principi fondamentali della fonazione: «Ora possiamo lavorare per migliorare ulteriormente la velocità, l’espressività e il naturalismo del linguaggio generato».
felicissima di questo. la sla è una malattia tremenda ancora senza cura, si possono solo tamponarne gli effetti disastrosi