La imagen muestra el momento en el que uno de los investigadores conecta la red de 253 electrodos del cerebro al puerto que lleva la señal neuronal hasta la máquina la convierte en voz.DecodificaciónLa decodificación empieza con los electrodos colocados en la corteza motora del habla. En una persona sana, desde aquí parten las conexiones neuronales que llegan, a través del tronco encefálico, hasta los músculos que controlan el tracto vocal. Con esta conexión perdida, una veintena de científicos de Berkeley y la Universidad de California en San Francisco, apoyados en varios trabajos previos, diseñaron un sistema de aprendizaje basado en algoritmos que decodificaban la actividad neuronal específica de Ann cuando quería articular una palabra.
Según Cheol Jun Cho, de Berkeley y coautor principal del estudio,
“básicamente, interceptamos la señal donde el pensamiento se convierte en articulación”. En una nota de la universidad, Cho añade:
“Lo que decodificamos es posterior a que haya surgido la idea, después de haber decidido qué decir, después de haber decidido qué palabras usar y cómo mover los músculos del tracto vocal”. Para que la máquina y Ann se comunicaran, ella tuvo que entrenar con un conjunto de 1024 palabras que el sistema presentaba en forma de frases. También entrenaron la BCI con una serie de 50 frases preestablecidas. Nada más ver que empezaban a aparecer en la pantalla, Ann iniciaba sus intentos de hablar y el sistema convertía la señala cerebral tanto en texto como en voz.
Ann guardaba el video de su boda, algo que les vino muy bien. Con él, pudieron elegir la voz del sintetizador como se elige la de un navegador o la de Siri. Ann dijo a los investigadores que oír su propia voz le ayudaba a conectar con la máquina. Empieza a ser práctica común grabar a las personas con deterioros cognitivos o enfermedades que amenazan su capacidad de hablar más adelante con la esperanza de que la ciencia les devuelve su voz en un futuro.
El segundo gran aporte de este trabajo es la velocidad. Esta BCI no es la única que ha logrado que personas que perdieron la posibilidad de hablar, vuelvan a comunicarse. Pero hasta ahora eran sistemas muy lentos. El proceso por el que los sujetos pretendían hablar o escribir debía pasar por varios pasos. Hasta que algo inteligible, ya fuera voz o texto, aparecía en el otro extremo del sistema, duraba varios segundos, demasiados para una comunicación real y fluida. Esta nueva BCI acorta y mucho la latencia.
“Aproximadamente un segundo, medido desde que nuestro decodificador de voz detecta su intención de hablar en las señales neuronales”, dice Anumanchipalli que demora. Para este neurocientífico, experto en procesamiento del lenguaje e inteligencia artificial, este nuevo método de transmisión convierte sus señales cerebrales a su voz personalizada casi en tiempo real.
“No necesita esperar a que termine una frase o palabra, ya que el decodificador funciona en sincronía con su intención de hablar, de forma similar a como hablan las personas sanas”, añade.
Para descartar que Ann y la BCI hubieran aprendido a repetir como papagayos las frases que les ofrecía el sistema (aunque eran miles las combinaciones posibles), en la fase final de los experimentos, los investigadores hicieron que la pantalla desplegara las 26 palabras que forman el llamado alfabeto fonética OTAN. Esta jerga fue un método iniciado hace un siglo y adoptado por la organización militar en los años 50 para facilitar las comunicaciones por radio deletreando comandos. Empieza con las palabras alfa, bravo, charlie, delta... Ann, que no había entrenado con ellas, las pudo decir sin grandes diferencias con los vocabularios con los que había entrenado.
Lo conseguido es solo una pequeña parte de lo que falta. Ya están trabajando para su IA capte las dimensiones no formales de la comunicación, como el tono, la expresividad, las exclamaciones, las preguntas...
“Tenemos un trabajo en curso para intentar ver si podemos decodificar estas características paralingüísticas a partir de la actividad cerebral”, dice en una nota Kaylo Littlejohn, también coautor de esta investigación.
“Se trata un problema que viene de atrás, incluso en los campos de la síntesis de audio clásica, y [cuya solución] permitiría alcanzar una naturalidad completa”.Otros problemas son, por ahora, también irresolubles. Uno es tener que abrir la cabeza y poner 253 electrodos sobre el cerebro. Lo reconoce Anumanchipalli:
“Por ahora, solo las técnicas invasivas han demostrado su eficacia con BCI del habla para personas con parálisis. Si las no invasivas mejoran la captación de la señal de forma precisa, sería razonable suponer que podremos crear una BCI no invasiva”. Pero, ahora, reconoce el experto, aún no están en ese punto. /
La Naciòn