Una nueva interfaz traduce las señales cerebrales en voz con hasta un 97 % de acierto y busca restablecer la comunicación de quienes no pueden hablar debido a parálisis o enfermedades neurodegenerativas como la ELA.
New England Journal of Medicine, muestra como el hombre fue capaz de comunicar su intención a los pocos minutos de activar el sistema.
Investigadores del UC Davis Health implantaron sensores en el cerebro de un hombre con un deterioro grave del habla debido a la esclerosis lateral amiotrófica (ELA). El estudio, publicado en elLa ELA, también conocida como enfermedad de Lou Gehrig, afecta a las células nerviosas que controlan el movimiento de todo el cuerpo. La enfermedad conduce a una pérdida gradual de la capacidad de pararse, caminar y usar las manos. También puede hacer que una persona pierda el control de los músculos utilizados para hablar, lo que lleva a una pérdida del habla.
Según explican en SINC, esta nueva tecnología pretende restaurar la comunicación de las personas que no pueden comunicarse debido a la parálisis o a afecciones neurológicas como la ELA. Para ello, es capaz de interpretar las señales cerebrales cuando el usuario intenta hablar y las convierte en texto que es transmitido en voz alta por la computadora.
«Nuestra tecnología BCI ayudó a un hombre con parálisis a comunicarse con amigos, familiares y cuidadores», comenta David Brandman, co-autor principal del estudio. «Es la neuroprótesis del habla más precisa jamás reportada» añade el investigador.
256 electrodos en un paciente con ela
Para desarrollar el sistema, el equipo inscribió a Casey Harrell, un hombre de 45 años con ELA, en el ensayo clínico BrainGate. En el momento de su participación, Harrell tenía debilidad en los brazos y las piernas (tetraparesia). Además, su habla era muy difícil de entender (disartria) y requería que otros le ayudaran a interpretarlo.
En julio de 2023, el investigador Brandman implantó el dispositivo BCI en Harrel. Colocó cuatro matrices de microelectrodos en la circunvolución precentral izquierda, una región del cerebro responsable de coordinar el habla. Las matrices están diseñadas para registrar la actividad cerebral de 256 electrodos corticales.
Las palabras decodificadas se mostraban en una pantalla. Sorprendentemente, se leyeron en voz alta con una voz que sonaba como la de Harrell antes de tener ELA. La voz fue compuesta utilizando software entrenado con muestras de audio existentes suyas.
En la primera sesión de entrenamiento de datos de voz, el sistema tardó 30 minutos en lograr una precisión de palabras del 99,6 % con un vocabulario de 50 palabras.
Además, dado que hay múltiples aspectos del sistema que pueden mejorarse, se prevé que en el futuro se explore su aplicación en personas con diferentes afecciones neurológicas o en fases más avanzadas de ELA, así como aumentar el número de participantes.