• aplicación banner 970x90

Implantes cerebrales y un avatar digital "devuelven” el habla a una mujer con parálisis

  • aplicación - banner 728x90

Una mujer, identificada como Ann y con parálisis severa por un derrame cerebral, ha vuelto a hablar a través de un avatar digital e implantes cerebrales.

Una de las dos nuevas interfaces cerebro-ordenador (BCI), sobre las que se publican sendos artículos en Nature, no solo traduce la actividad neuronal en texto, sino que se complementa con un avatar digital que puede sintetizar la voz, similar a la que tenía el usuario, y algunas expresiones faciales.

Los nuevos dispositivos generan texto a una media de 78 y 62 palabras por minuto, respectivamente, aún lejos de las 160 de la conversación normal, pero muy por encima de otras pruebas, además amplían el vocabulario y reducen la tasa de errores.

Estas interfaces son por ahora pruebas de concepto limitadas al laboratorio, pero suponen un avance significativo en el propósito de facilitar la comunicación a personas con un grado de parálisis de los músculos que les imposibilita el habla debido, por ejemplo, a un ictus o la esclerosis lateral amiotrófica (ELA).

“Con estos nuevos estudios, es posible imaginar un futuro en el que podamos devolver la fluidez de la conversación a alguien con parálisis, permitiéndole decir libremente lo que quiera con una precisión lo bastante alta como para que se le entienda con fiabilidad”, dijo en una rueda de prensa virtual Frank Willet, coordinador de uno de los estudios de la Universidad de Stanford (EE.UU.).

El primer BCI es responsabilidad de un equipo liderado por Edward Chang, de la Universidad de California en San Francisco, y ha permitido a una mujer, identificada como Ann y con parálisis severa por un derrame cerebral, hablar a través de un avatar digital.

El sistema genera una media de 78 palabras por minuto, con un 28 % de error para un vocabulario de más de 39.000 palabras.

El equipo implantó un rectángulo fino como un papel con 253 electrodos en la superficie del cerebro de la mujer, en zonas fundamentales para el habla, los cuales interceptan las señales cerebrales que, de no haber sido por el ictus, habrían ido a parar a los músculos de la lengua, la mandíbula, la laringe y la cara.

Un cable, conectado a un puerto fijado a su cabeza, conectaba los electrodos a un banco de ordenadores. El siguiente paso fue entrenar un modelo de aprendizaje profundo para reconocer las señales cerebrales únicas de Ann relacionadas con el habla mientras ella intentaba pronunciar frases completas en silencio.

Esta inteligencia artificial no reconoce palabras, sino los 39 fonemas que componen el inglés hablado, lo que mejoró la precisión del sistema y lo hizo tres veces más rápido.

Pero el equipo no se limitó a descodificar las señales del habla en texto, porque la comunicación no son solo palabras. “Nuestra voz y expresiones faciales forman parte de nuestra identidad”, recalcó Chang en el encuentro con la prensa.

Así, crearon un algoritmo para sintetizar el habla, que personalizaron para que sonara como la voz de Ann antes de la lesión, utilizando una grabación de la mujer en su boda, explicó Sean Metzger, de la Universidad de California.

El sistema se completa con un avatar en la pantalla del ordenador animado por un software que simula los movimientos musculares de la cara al hablar y además reproduce expresiones como felicidad, sorpresa o tristeza.

Metzger precisó que este avatar es una prueba de concepto preliminar, pero creen que “podría ser una tecnología potente para comunicarse sin hablar activamente”.

El segundo BCI presentado ha ayudado a Patt Bennet, de 68 años, a empezar a comunicarse de nuevo. En 2012 le diagnosticaron ELA, enfermedad que le afectó en primer lugar los músculos de la cara, lengua y faringe. Aunque su cerebro puede formular instrucciones para generar fonemas, ella solo puede producir algún sonido no articulado.

Willet, coordinador de este segundo equipo, de la Universidad de Stanford, explicó que la mayor diferencia entre ambos dispositivos es la tecnología de registro, en su caso a base de matrices de microelectrodos de alta resolución que pueden registrar la actividad de neuronas individuales.

En 2022, el equipo implantó en el cortex cerebral de la paciente dos pequeños sensores que forman parte de un BCI para traducir en palabras en una pantalla la actividad cerebral que acompaña a los intentos de habla de Bennet.

Un algoritmo de inteligencia artificial recibe y descodifica la información electrónica procedente del cerebro y acaba aprendiendo a distinguir la actividad cerebral asociada a sus intentos de formular cada uno de los 39 fonemas.

Varios intentos

Tras 25 sesiones de cuatro horas para entrenar el software, los intentos de Bennett de hablar se convirtieron en palabras en la pantalla de un ordenador a una velocidad de 62 palabras por minuto, con una tasa de error del 23,8 % para un vocabulario de 125.000 palabras.

Estos dispositivos aún están lejos de poder usarse en la vida cotidiana, pero son un gran avance hacia ese objetivo, coincidieron los dos equipos.

Te puede interesar: Nuevo cometa estará visible antes de abandonar el sistema solar para siempre

Con estos trabajos “hemos cruzado el umbral del rendimiento y estamos entusiasmados por cruzar el de la usabilidad. Ya no es una cuestión de si es posible”, dijo Chang.

Ambos científicos destacaron la labor de los participantes en estos ensayos experimentales que, como tal, se realizan por un tiempo limitado. Son “realmente un grupo especial de personas”, que -destacó Willet- “no esperan ningún beneficio de este ensayo y solo están interesados en ayudar a impulsar la tecnología”.

En el foco

  • APlicación banner 300x250

  • comisionn de energia banner diciambre 2025

  • OBRAS PUBLICAS 300X250

Explora más

Empresa surcoreana lanza el primer cohete comercial desde Brasil pero pierde su señal

Río de Janeiro.- La empresa surcoreana Innospace lanzó un cohete desde el Centro de Alcántara, la base espacial con la que Brasil cuenta en la Amazonía, pero dos minutos después del despegue perdió la señal del aparato por una anomalía no explicada, que frustró el que sería el primer lanzamiento comercial de un vehículo espacial […]

2025: el año en que la IA dejó de ser invisible

Madrid.- La progresiva pero silenciosa incursión de la inteligencia artificial durante los últimos años (navegadores, buscadores, escritura predictiva o plataformas que sugieren contenidos o compras) ha dado un importante salto cualitativo durante 2025 para irrumpir de una forma repentina en tareas cotidianas pero con una notable diferencia: ahora los usuarios son plenamente conscientes de cuándo […]

Es oficial: Samsung presenta el Exynos 2600, su primer chip en 2nm, con 10 núcleos y una prometedora gestión térmica

Es el primer chip en 2nm de Samsung Cuenta conm 10 núcleos y Heat Path Block, un novedoso sistema de gestión térmica Mejora la gestión de la IA de su antecesor

Impacto de la IA 2026: la infraestructura TI crítica como base para un crecimiento sostenido

Redacción.- La IA es una herramienta poderosa para transformar los procesos organizacionales en todas las áreas; recursos humanos, legal, cadena de suministro, I&D, marketing, entre otros. Una encuesta de IDC muestra que más de un tercio de los líderes tecnológicos creen que la GenIA ya está alterando su negocio, y el 88 % espera que […]

Apple Music llegó a ChatGPT: cómo integrar las cuentas para usar IA

Uno de los grandes beneficios de esta incorporación es la capacidad para abordar búsquedas complejas, como explorar música instrumental, óperas o listas temáticas muy específicas

ChatGPT gana relevancia como nuevo campo de batalla de la desinformación

Madrid/Bogotá.- En una escena propia de una serie distópica, en 2025 hemos visto cómo una empresa ha llegado a un acuerdo millonario con un país, Israel, para manipular las respuestas de ChatGPT, una muestra mercantil de una tendencia de la desinformación en alza, como han evidenciado varias investigaciones este año. Se trata de una nueva […]
  • APlicación banner 300x250