Traducido por el equipo de SOTT.net

Una prótesis del habla desarrollada por un equipo de colaboración de neurocientíficos, neurocirujanos e ingenieros de Duke puede traducir las señales cerebrales de una persona en lo que está tratando de decir.
brain right left hemisphere
Esta nueva tecnología, publicada el 6 de noviembre en la revista Nature Communications, podría ayudar algún día a las personas que no pueden hablar debido a trastornos neurológicos a recuperar la capacidad de comunicarse a través de una interfaz cerebro-ordenador.

"Hay muchos pacientes que sufren trastornos motores debilitantes, como la ELA (esclerosis lateral amiotrófica) o el síndrome de enclaustramiento, que pueden mermar su capacidad de hablar", afirma el doctor Gregory Cogan, profesor de neurología de la Facultad de Medicina de la Universidad de Duke y uno de los investigadores principales del proyecto. "Pero las herramientas actuales disponibles para permitirles comunicarse suelen ser muy lentas y engorrosas".

Imagínese escuchar un audiolibro a media velocidad. Esa es la mejor velocidad de descodificación del habla disponible en la actualidad, que ronda las 78 palabras por minuto. Sin embargo, la gente habla unas 150 palabras por minuto.

El desfase entre la velocidad del habla y la del habla descodificada se debe en parte al número relativamente reducido de sensores de actividad cerebral que pueden fusionarse en una pieza de material fino como el papel que se coloca sobre la superficie del cerebro. Menos sensores proporcionan menos información descifrable.

Para superar las limitaciones anteriores, Cogan se asoció con el doctor Jonathan Viventi, miembro de la facultad del Instituto Duke de Ciencias Cerebrales, cuyo laboratorio de ingeniería biomédica está especializado en la fabricación de sensores cerebrales de alta densidad, ultrafinos y flexibles.

Para este proyecto, Viventi y su equipo incorporaron la impresionante cantidad de 256 sensores cerebrales microscópicos en un trozo de plástico flexible de calidad médica del tamaño de un sello de correos. Las neuronas separadas por apenas un grano de arena pueden tener patrones de actividad muy diferentes al coordinar el habla, por lo que es necesario distinguir las señales de las células cerebrales vecinas para ayudar a hacer predicciones precisas sobre la intención del habla.

Tras fabricar el nuevo implante, Cogan y Viventi colaboraron con varios neurocirujanos del Hospital Universitario Duke, entre ellos los doctores Derek Southwell, Nandan Lad y Allan Friedman, que ayudaron a reclutar a cuatro pacientes para probar los implantes. El experimento requirió que los investigadores colocaran temporalmente el dispositivo en pacientes que estaban siendo sometidos a cirugía cerebral por alguna otra afección, como el tratamiento de la enfermedad de Parkinson o la extirpación de un tumor. El tiempo era limitado para que Cogan y su equipo pudieran probar su dispositivo en el quirófano.

"Me gusta compararlo con un equipo de pits de NASCAR", dijo Cogan. "No queremos añadir tiempo extra al procedimiento quirúrgico, así que teníamos que entrar y salir en 15 minutos". En cuanto el cirujano y el equipo médico dijeron '¡Ya!', nos pusimos en marcha y el paciente realizó la tarea".

La tarea consistió en una simple actividad de escuchar y repetir. Los participantes escucharon una serie de palabras sin sentido, como "ava", "kug" o "vip", y luego pronunciaron cada una de ellas en voz alta. El dispositivo registró la actividad de la corteza motora del habla de cada paciente mientras coordinaba casi 100 músculos que mueven los labios, la lengua, la mandíbula y la laringe.

Posteriormente, Suseendrakumar Duraivel, primer autor del nuevo informe y estudiante de postgrado de ingeniería biomédica en Duke, tomó los datos neuronales y del habla del quirófano y los introdujo en un algoritmo de aprendizaje automático para ver con qué precisión podía predecir qué sonido se estaba emitiendo, basándose únicamente en las grabaciones de la actividad cerebral.

Para algunos sonidos y participantes, como /g/ en la palabra "gak", el descodificador acertó el 84% de las veces cuando era el primer sonido de una cadena de tres que formaban una palabra sin sentido determinada.

Sin embargo, la precisión disminuyó a medida que el descodificador analizaba los sonidos del medio o del final de una palabra sin sentido. También tuvo problemas si dos sonidos eran similares, como /p/ y /b/.

En general, el descodificador acertó el 40% de las veces. Puede parecer una puntuación humilde, pero resulta impresionante si se tiene en cuenta que las hazañas técnicas similares del "cerebro al habla" requieren horas o días de datos. Sin embargo, el algoritmo de descodificación del habla que utilizó Duraivel funcionaba con sólo 90 segundos de datos hablados de la prueba de 15 minutos.

Duraivel y sus mentores están entusiasmados con la idea de fabricar una versión inalámbrica del dispositivo gracias a una reciente subvención de 2,4 millones de dólares de los Institutos Nacionales de Salud.

"Ahora estamos desarrollando el mismo tipo de dispositivos de grabación, pero sin cables", explica Cogan. "Podrías moverte y no tendrías que estar atado a una toma de corriente, lo cual es realmente emocionante".

Aunque su trabajo es alentador, aún queda mucho camino por recorrer para que la prótesis del habla de Viventi y Cogan llegue pronto a las estanterías.

"Estamos en un punto en el que todavía es mucho más lento que el habla natural", decía Viventi en un artículo reciente de Duke Magazine sobre la tecnología, "pero se puede ver la trayectoria en la que se podría llegar hasta ahí".

Este trabajo ha sido financiado con subvenciones de los Institutos Nacionales de la Salud (R01DC019498, UL1TR002553), el Departamento de Defensa (W81XWH-21-0538), la Fundación Klingenstein-Simons y un Premio Incubadora del Instituto Duke de Ciencias del Cerebro.

Fuente:

Materiales proporcionados por la Universidad de Duke. Nota: El contenido puede haber sido editado por razones de estilo y extensión.

Referencia de la Revista:
  1. Suseendrakumar Duraivel, Shervin Rahimpour, Chia-Han Chiang, Michael Trumpis, Charles Wang, Katrina Barth, Stephen C. Harward, Shivanand P. Lad, Allan H. Friedman, Derek G. Southwell, Saurabh R. Sinha, Jonathan Viventi, Gregory B. Cogan. High-resolution neural recordings improve the accuracy of speech decoding. Nature Communications, 2023; 14 (1) DOI: 10.1038/s41467-023-42555-1