Diari Més

Una mujer con parálisis cerebral y otra con ELA recuperan el habla gracias a unos implantes cerebrales

Esta tecnología traduce la actividad cerebral en palabras en pacientes sin capacidad de comunicarse verbalmente

Implantes cerebrales 'devuelven' el habla a una mujer con parálisis.

Una mujer con parálisis cerebral y otra con ELA recuperan el habla gracias a unos implantes cerebralesNoah Berger

Publicado por

Creado:

Actualizado:

Una mujer con parálisis cerebral y otra con esclerosis lateral amiotrófica (ELA)han recuperado la capacidad de comunicarse verbalmentegracias a unos implantes que traducen la actividad cerebral en palabras. Esto se ha llevado a cabo gracias a unas interfaces cerebro-ordenador (BCI) que complementan estas traducciones con un avatar digital. También sintetizan la voz, similar a la que tenía el usuario, y algunas expresiones faciales.

Los nuevos dispositivosgeneran texto a una media de 78 y 62 palabraspor minuto, respectivamente, aún lejos de las 160 de la conversación normal, pero muy por encima de otras pruebas. Además amplían el vocabulario y reducen la tasa de errores, asegura la revista Nature.

Estas interfaces son por ahora pruebas de concepto limitadas al laboratorio. Suponenun avance significativoen el propósito de facilitar la comunicación a personas con un grado de parálisis de los músculos que les imposibilita el habla debido, por ejemplo, a un ictuso a la ELA.

«Una precisión bastante alta»

«Con estos nuevos estudios, es posible imaginar un futuro en el que podamos devolver la fluidez de la conversación a alguien con parálisis. Esto le permitirádecir libremente lo que quieracon una precisión lo bastante alta como para que se le entienda con fiabilidad», dijo en una rueda de prensa virtual Frank Willet, coordinador de uno de los estudios de la Universidad de Stanford (EEUU).

El primer BCI es responsabilidad de un equipo liderado por Edward Chang, de la Universidad de Californiaen San Francisco. Ha permitido a una mujer, identificada como Ann y conparálisis severapor un derrame cerebral, hablar a través de un avatar digital.

El equipo implantó un fino rectángulo con 253 electrodos en la superficie del cerebro de la mujer, en zonas fundamentales para el habla. Estasinterceptan las señalescerebrales que, de no haber sido por el ictus, habrían ido a parar a los músculos de la lengua, la mandíbula, la laringe y la cara. Así, un cable conectado a un puerto fijado a su cabeza, conectaba los electrodos a un banco de ordenadores.

Un modelo de aprendizaje

El siguiente paso fue entrenar unmodelo de aprendizajeprofundo para reconocer las señales cerebrales únicas de Ann relacionadas con el habla. Mientras, ella intentaba pronunciar frases completas en silencio. A través de esta inteligencia artificialno se reconocen palabras,sino los 39 fonemas que componen el inglés hablado, lo que mejoró la precisión del sistema y lo hizo tres veces más rápido.

Sin embargo, el equipo no se limitó a descodificar las señales del habla en texto, porque la comunicaciónno son solo palabras. «Nuestra voz y expresiones faciales forman parte de nuestra identidad», recalcó Chang en el encuentro con la prensa. Así, crearon un algoritmo parasintetizar el habla, que personalizaron para que sonara como la voz de Ann antes de la lesión. Para ello utilizaron una grabación de la mujer en su boda, explicó Sean Metzger, de la Universidad de California.

El sistema se completa con un avatar en la pantalla del ordenador animado por un software que simula los movimientos musculares de la cara al hablar y además reproduce expresiones como felicidad, sorpresa o tristeza.Metzger precisó que esta es una prueba de concepto preliminar, pero creen que «podría ser una tecnología potentepara comunicarse sin hablar activamente».

Decodificación de información

El segundo BCI presentado ha ayudado a Patt Bennet, de 68 años, a empezar a comunicarse de nuevo. En 2012 le diagnosticaron ELA, enfermedad que le afectó en primer lugar los músculos de la cara, lengua y faringe. Aunque su cerebro puede formular instrucciones para generar fonemas, ella solo puede producir algúnsonido no articulado.

Willet, coordinador de este segundo equipo, de la Universidad de Stanford, explicó que la mayor diferencia entre ambos dispositivos es latecnología de registro, en su caso a base de matrices de microelectrodos de alta resolución que pueden registrar la actividad de neuronas individuales.

En 2022, el equipo implantó en el córtex cerebral de la paciente dospequeños sensoresque forman parte de un BCI para traducir en palabras en una pantalla la actividad cerebral que acompaña a los intentos de habla de Bennet. Un algoritmo de inteligencia artificial recibe ydecodifica la informaciónelectrónica procedente del cerebro. Acaba aprendiendo a distinguir la actividad cerebral asociada a sus intentos de formular cada uno de los 39 fonemas.

Tras 25 sesiones de cuatro horas para entrenar el software, los intentos de Bennett de hablar se convirtieron en palabras en la pantalla de un ordenador a una velocidad de 62 palabras por minuto, con una tasa de error del 23,8% para unvocabulario de 125.000 palabras.

Estos dispositivos aún estánlejos de poder usarseen la vida cotidiana, pero son un gran avance hacia ese objetivo, coincidieron los dos equipos.Con estos trabajos «hemos cruzado el umbral del rendimiento y estamos entusiasmados por cruzar el de la usabilidad. Ya no es una cuestión de si es posible», dijo Chang.

Ambos científicos destacaron la labor de los participantes en estos ensayos experimentales que, como tal, se realizan por un tiempo limitado. Son «realmente un grupo especial de personas», que -destacó Willet- «no esperan ningún beneficiode este ensayo y solo están interesados en ayudar a impulsar la tecnología».

tracking