Una mujer recupera la capacidad de hablar tras un derrame cerebral

Una mujer que sufrió un derrame cerebral hace casi 20 años logró traducir sus pensamientos en un momento debido a un implante cerebral que desarrollaron investigadores en la Universidad de California en San Francisco y en la Universidad de California en Berkeley (EE. UU.).
Los científicos, que publicaron el descubrimiento en «Nature Neuroscience», lograron mejorar este dispositivo, conocido como la interfaz cerebro-computadora (BCI), con algoritmos de inteligencia artificial (IA) que decodificaban las frases mientras la mujer pensaba y luego las pronunciaba.
Por lo tanto, a diferencia de las iniciativas anteriores, que han producido sonidos solo cuando el usuario ha terminado de pronunciar una frase, el método actual puede detectar palabras simultáneamente y transformarlas en menos de tres segundos.
El participante en el estudio, Ann, perdió la capacidad de hablar después de sufrir un derrame cerebral en el tronco cerebral en 2005. Aproximadamente 18 años después, se sometió a una cirugía para colocar un rectángulo delgado con 253 electrodos en la superficie de la corteza cerebral. El implante puede registrar la actividad combinada de miles de neuronas al mismo tiempo.
Los investigadores personalizaron la voz sintética para que sonara como la voz de Ann antes de que se enfermara, entrenando algoritmos de inteligencia artificial con grabaciones de su video de bodas.
«Adoptamos técnicas de transductor de flujo continuo, similares a las utilizadas por métodos de ASR populares, como Siri o Alexa, y reutilizamos la síntesis personalizada de voz», dijo Kaylo Littlejohn, coautor principal.
«Este enfoque ha llevado a mejoras significativas en la tasa de decodificación de la neuroprótesis de voz cerebral en comparación con los enfoques anteriores con retrasos más largos», dijo Littlejohn.
En el estudio, los científicos explican que la comunicación oral natural es instantánea y que el discurso que dura más de unos segundos puede interrumpir el flujo natural de la conversación.
Esto hace que las personas con parálisis participen en un diálogo significativo, lo que puede causar sentimientos de aislamiento y frustración», dicen.
Por lo tanto, diseñaron y utilizaron modelos de transductor de aprendizaje neuronal recurrente de aprendizaje profundo para lograr una síntesis de discurso fluido e inteligible en una línea personalizada de acuerdo con la voz del participante.
Nuestros descubrimientos introducen un paradigma de neuroprótesis del habla para restaurar la comunicación hablada naturalista en personas con parálisis», dicen los científicos.
Los investigadores concibieron una neuroprótesis de síntesis del habla que permite la síntesis del habla deseada a partir de las señales neuronales adquiridas de un grupo de 253 canales implantados en la superficie de la corteza cerebral y una pequeña porción del lóbulo temporal.
Para entrenar el sistema, registraron datos neuronales mientras Ann intentaba pronunciar frases libres. Se le presentó un texto en un monitor y se le pidió que comenzara a hablar en silencio una vez que apareció un «Go» visual.
Además, el discurso sintetizado se transmitió a través de un altavoz analógico cercano, y el texto decodificado se mostró en el monitor. Los decodificaciones neurales del sistema eran bimodales, ya que fueron entrenados conjuntamente no solo para sintetizar el discurso, sino también para decodificar el texto simultáneamente.
También evaluaron el sistema utilizando un conjunto de 50 frases de vocabulario reducido y un conjunto de frases de vocabulario ampliado con 1.024 palabras generales. El conjunto de 50 frases se diseñó como un conjunto de frases predefinidas para expresar las necesidades principales de los cuidadores.
Por el contrario, el conjunto de 1.024 palabras generales se diseñó como un conjunto de frases de un excelente vocabulario que contiene 12,379 frases únicas compuestas por 1,024 palabras únicas extraídas de transcripciones de redes sociales y películas.