La tecnología de IA devuelve la voz a una mujer con síndrome de enclaustramiento post-accidente cerebrovascular

Tecnología de IA devuelve voz a mujer con síndrome de enclaustramiento post-ACV

Compartir en Pinterest
Un participante en el estudio de neuroprótesis del habla del Dr. Edward Chang intenta hablar en silencio una frase mientras el sistema de prótesis del habla traduce las señales de su cerebro en habla sintetizada y movimientos faciales de un avatar el lunes 22 de mayo de 2023 en El Cerrito, CA. Foto de Noah Berger
  • El síndrome de cautiverio es un trastorno neurológico en el que una persona no puede hablar ni mostrar expresiones faciales.
  • La mayoría de las personas con esta condición deben depender únicamente del parpadeo de los ojos y del movimiento para comunicarse con los demás.
  • Investigadores de la Universidad de California en San Francisco han desarrollado una nueva forma para que las personas con síndrome de cautiverio puedan comunicarse y mostrar expresiones faciales mediante el uso de un implante cerebral y un avatar digital.

El síndrome de cautiverio es un trastorno neurológico que causa parálisis de los músculos voluntarios de la cara, brazos y piernas de una persona.

Aunque una persona con síndrome de cautiverio puede entender completamente lo que alguien le dice o le lee, no puede hablar ni mostrar emociones a través de su rostro, como felicidad, enojo o tristeza.

En muchas ocasiones, una persona con síndrome de cautiverio depende de pequeños movimientos, como el parpadeo, para comunicarse con los demás.

Ahora, investigadores de la Universidad de California en San Francisco han desarrollado una nueva forma para que las personas con síndrome de cautiverio puedan comunicarse y mostrar expresiones faciales mediante el uso de un implante cerebral y un avatar digital.

Este estudio fue publicado recientemente en la revista Nature.

¿Qué es el síndrome de cautiverio?

El síndrome de cautiverio es relativamente raro, menos de 1,000 personas en Estados Unidos tienen esta condición.

Por lo general, la condición es causada por daño a una parte del tronco cerebral llamada puente, lo que provoca un bloqueo en la función nerviosa que causa parálisis.

El daño al tronco cerebral generalmente ocurre durante un accidente cerebrovascular, pero también puede ocurrir debido a inflamación de los nervios, tumores, infecciones u otras condiciones como la esclerosis lateral amiotrófica (ELA).

Cuando una persona tiene síndrome de cautiverio, pierde la capacidad de mover sus músculos voluntarios a voluntad. Sin embargo, no pierde ninguna capacidad cognitiva, por lo que puede pensar normalmente y entender cuando alguien le habla o le lee. Y su capacidad auditiva no se ve afectada.

Sin embargo, el síndrome de cautiverio puede afectar la capacidad de una persona para respirar y comer al afectar la masticación y la deglución.

No hay cura ni tratamientos específicos actualmente disponibles para el síndrome de cautiverio. Un médico tratará la causa subyacente de la condición y puede recetar terapias físicas y del habla.

Comunicarse con el síndrome de cautiverio

La forma más común para que las personas con síndrome de cautiverio se comuniquen es a través de los movimientos oculares y el parpadeo.

Hoy en día, existen programas de computadora y otras tecnologías de asistencia que pueden ayudarles a comunicarse con los demás, como interfaces cerebro-computadora, dispositivos de ratón con control de cabeza y sensores de movimiento ocular infrarrojos.

Y gracias a las innovaciones en ingeniería informática y nuevas tecnologías como la inteligencia artificial (IA), los investigadores han estado presentando nuevas opciones de comunicación para las personas con síndrome de cautiverio.

Por ejemplo, un estudio publicado en marzo de 2022 mostró que un hombre con síndrome de cautiverio pudo comunicarse con su familia mediante el uso de un implante cerebral y una interfaz de escritura.

Facilitando el “habla” a través de la IA

Para el estudio actual, los investigadores desarrollaron una nueva tecnología cerebro-computadora utilizando un implante cerebral y un avatar digital. El avatar digital permite que una persona con parálisis facial transmita expresiones faciales y emociones normales.

La nueva tecnología se probó en una mujer de 47 años llamada Ann, quien tiene síndrome de cautiverio después de un accidente cerebrovascular en el tronco cerebral.

Medical News Today habló con el Dr. David Moses, profesor asistente de cirugía neurológica, parte del Laboratorio Chang en la Universidad de California en San Francisco y uno de los coautores principales del estudio.

Según él, cuando hablamos, patrones complejos de actividad neural en nuestra corteza motora del habla, la parte del cerebro que coordina nuestro tracto vocal, se propagan a través de una vía neural a través del tronco cerebral y eventualmente a nuestros articuladores, como los labios, la lengua, la laringe y la mandíbula.

“Para Ann y otras personas que han sufrido un accidente cerebrovascular en el tronco cerebral, esta vía está dañada y las señales de la corteza motora del habla no pueden llegar a los músculos articuladores”, explicó.

Con este implante cerebral, el Dr. Moses dijo que los especialistas pueden registrar la actividad neural de la corteza mientras Ann intenta hablar, y traducen directamente eso en sus palabras previstas, evitando por completo su parálisis.

Además, explicó cómo funciona esto:

“Lo hacemos primero creando modelos de inteligencia artificial entrenados en datos neurales mientras ella intenta decir en silencio muchas frases – en realidad no vocaliza mientras intenta decir esto; ella hace todo lo posible por ‘mover’ las palabras en las frases. Al permitir que los modelos de IA aprendan la relación entre la actividad cerebral y el habla prevista, podemos luego usar estos modelos en tiempo real para decodificar su actividad cerebral en habla. Los modelos utilizan representaciones intermedias flexibles del habla internamente, lo que permite al decodificador generar frases que ella no intentó decir durante el entrenamiento.”

Dándole una ‘voz’ a Ann

Ann recibió un implante cerebral con 253 electrodos colocados en áreas específicas de la superficie del cerebro críticas para el habla. Un cable conecta el implante cerebral a las computadoras.

Durante semanas, Ann trabajó con investigadores para entrenar los algoritmos de inteligencia artificial para reconocer y responder a sus señales cerebrales únicas para el habla.

Los investigadores también crearon un avatar digital de Ann a través de un software que simula y anima los movimientos de los músculos faciales.

Utilizando el aprendizaje automático, pudieron combinar el software con las señales provenientes del cerebro de Ann y convertirlas en movimientos en la cara de su avatar, mostrando tanto el habla como las expresiones faciales.

Adicionalmente, los científicos pudieron utilizar imágenes de un video previo a la lesión para recrear la voz real de Ann. De esta manera, cuando habla a través del avatar digital, es su voz y no una voz computarizada predeterminada.

Siguientes pasos en la investigación

Cuando se le preguntó cuáles serían los siguientes pasos en esta nueva tecnología, el Dr. Moses dijo que hay muchas vías para mejorar.

“Para el hardware, se necesita una versión inalámbrica para mejorar la viabilidad como solución clínica”, señaló.

“En términos de software, queremos integrar nuestros enfoques con los dispositivos existentes de ella, para que pueda utilizar el sistema para escribir correos electrónicos y navegar por la web. También queremos aprovechar algunos avances en la modelización de IA generativa para mejorar nuestras salidas de decodificación”, agregó el Dr. Moses.

Resolviendo un problema difícil

MNT también habló sobre este estudio con el Dr. Amit Kochhar, doble certificado en otorrinolaringología, cirugía de cabeza y cuello, y cirugía plástica y reconstructiva facial, y director del Programa de Trastornos del Nervio Facial en el Pacific Neuroscience Institute en Santa Mónica, California, quien no estuvo involucrado en la investigación.

Como médico que trata a pacientes con parálisis facial, dijo que una de las cosas más difíciles para los pacientes es la incapacidad de expresar sus emociones a los demás.

“La investigación ha demostrado que si un observador inexperto mira a alguien cuya mitad de la cara está paralizada, no pueden distinguir si la persona está transmitiendo una emoción feliz o una emoción de enojo”, explicó el Dr. Kochhar. “Y así hay mucha confusión por parte del observador y obviamente frustración por parte del paciente.”

“Y así si tuvieran acceso a algo como esto, […] podrían comunicarse con otros, como sus familiares, sus amigos, utilizando este tipo de tecnología de avatar para poder transmitir adecuadamente las emociones de felicidad, sorpresa o enojo sin tener esa confusión”, agregó.

El Dr. Kochhar dijo que le gustaría ver esta tecnología utilizada por más personas para asegurarse de que sea reproducible y para garantizar que sea económicamente viable.

“Si el costo de este dispositivo y solo está disponible para un pequeño porcentaje de la población que puede pagarlo, es un gran avance pero eso no va a ayudar a muchas otras personas”, agregó.

El Dr. Kochhar también dijo que le gustaría ver esta tecnología portátil: “La paciente tuvo que ir al centro para que funcione, no pudo llevarlo consigo para estar en casa. Y así esos son los siguientes pasos en la evolución de este tipo de software”.