miércoles, mayo 6, 2026
  • Cada Rincon Banner turismo

Una interfaz con IA permite a una mujer con parálisis 'hablar' casi en tiempo real

  • banner vida interior

Una interfaz con IA permite a una mujer con parálisis 'hablar' casi en tiempo real gracias a un equipo científico de la Universidad de California en Berkeley y en San Francisco (Estados Unidos) que ha diseñado un dispositivo capaz de traducir la actividad del habla en el cerebro en palabras habladas casi en tiempo real, consiguiendo que la mujer de 47 años con tetraplejia 'hablara' después de 18 años.

Este trabajo resuelve "el viejo problema" de la latencia de las neuroprótesis del habla, es decir, el tiempo que transcurre entre el momento en que un sujeto intenta hablar y el momento en que se produce el sonido.

Gracias a los últimos avances basados en inteligencia artificial (IA), los investigadores desarrollaron un método de transmisión que sintetiza las señales cerebrales en habla audible casi en tiempo real. Su descripción se publica este lunes en la revista Nature Neuroscience.

"Nuestro enfoque de 'streaming' lleva la misma capacidad de decodificación rápida del habla de dispositivos como Alexa y Siri a las neuroprótesis", resume Gopala Anumanchipalli, co-investigador principal del estudio.

"Utilizando un tipo de algoritmo similar, descubrimos que podíamos descodificar datos neuronales y, por primera vez, hacer posible una transmisión de voz casi sincrónica. El resultado es una síntesis del habla más natural y fluida", explica el científico.

Para Edward Chang, otro de los científicos principales, esta nueva tecnología "tiene un enorme potencial" para mejorar la calidad de vida de las personas con parálisis graves que afectan al habla. "Es emocionante que los últimos avances en IA estén acelerando enormemente las interfaces cerebro-ordenador para su uso práctico en el mundo real en un futuro próximo".

¿Cómo funciona?

Como parte de un ensayo clínico, los equipos de Chang y Anumanchipalli implantaron la interfaz cerebro-computadora en una mujer de 47 años con tetraplejia (parálisis de las extremidades y el torso), que no había podido hablar o vocalizar durante 18 años después de sufrir un accidente cerebrovascular.

Para recopilar los datos necesarios para entrenar su algoritmo, los investigadores primero hicieron que la participante mirara una indicación en la pantalla, como la frase "hola, ¿cómo estás?", y luego intentara pronunciar esa frase en silencio.

Así, los autores entrenaron una red neuronal de aprendizaje profundo utilizando la actividad cerebral de la participante, que se registró mediante electrodos implantados sobre su corteza sensomotora del habla, mientras pronunciaba internamente en su cerebro frases completas que contenían 1.024 palabras únicas.

Te puede interesar: Amazon presenta Alexa+ con funciones de IA

A continuación, se utilizó este modelo para descodificar el habla en línea, simultáneamente con la intención vocal de la participante (Ann), y luego producir audio imitando su voz -esta había sido entrenada utilizando un clip de ella hablando antes de la lesión-.

Cheol Jun Cho, otro de los firmantes del trabajo, resume que la neuroprótesis funciona tomando muestras de datos neuronales de la corteza motora, la parte del cerebro que controla la producción del habla, y luego utiliza la IA para descodificar la función cerebral y convertirla en habla.

"Básicamente interceptamos las señales en las que el pensamiento se traduce en articulación (...). Así que lo que estamos descodificando es después de que se haya producido un pensamiento, después de que hayamos decidido qué decir, después de que hayamos decidido qué palabras utilizar y cómo mover los músculos del tracto vocal".

En su anterior estudio sobre este tipo de dispositivos, los investigadores se encontraron con una larga latencia de descodificación, de unos 8 segundos para una sola frase. Con el nuevo método de transmisión, la salida audible puede generarse casi en tiempo real, mientras el sujeto intenta hablar, recoge un comunicado de la Facultad de Ingeniería de la Universidad de California en Berkeley.

Para descartar que el sistema simplemente estaba emparejando patrones y repitiendo partes de los datos de entrenamiento, los investigadores probaron su capacidad para sintetizar palabras que no formaban parte del vocabulario del adiestramiento primario. En este caso, eligieron 26 palabras del llamado alfabeto fonético de la OTAN, como "alpha" o "bravo".

"Descubrimos que nuestro modelo lo hace bien, lo que demuestra que, efectivamente, está aprendiendo los componentes básicos del sonido o la voz", concluye Anumanchipalli. 

En el foco

  • APlicación banner 300x250

  • Intrant - transito limpio

  • banner punto vida interior y policia

Explora más

Humano o IA: así es la nueva insignia de verificación a artistas reales en Spotify

Spotify incorporó una nueva insignia para que los usuarios identifiquen fácilmente a los artistas humanos en la plataforma y los distingan de aquellos creados por inteligencia artificial. Para obtener esta verificación, los artistas deben cumplir ciertos requisitos, como tener presencia comprobable fuera de Spotify, con actividades como conciertos, ventas de merchandising y perfiles de redes sociales vinculados. Los […]

Muñecos con IA: la nueva compañía de los adultos mayores en Corea del Sur

Seúl.- Corea del Sur está recurriendo a muñecos con inteligencia artificial (IA) para acompañar a personas mayores que viven solas, capaces de recordarles rutinas diarias y detectar situaciones de riesgo, y que algunos consideran incluso "amigos" en un país aquejado de altas tasas de depresión y envejecimiento de la población. "Cuando hablo (con la muñeca), […]

Elon Musk, el hombre más rico del mundo, dice que fue «un tonto» al financiar a OpenAI

Los Ángeles.- Elon Musk, el hombre más rico del mundo, dijo este miércoles en el juicio contra OpenAI que fue “un tonto” al financiar la fundación de la tecnológica, a la que demandó por cambiar su misión inicial sin fines de lucro. «Fui un tonto que les proporcionó financiación gratuita para crear una ‘startup’… Les […]

Un robot que ‘perrea’ y 3D sin gafas: Nueva Jersey exhibe lo último en tecnología

Maplewood.- Un robot personalizado que sabe perrear, monitores de 3D sin gafas o un marco de fotos con inteligencia artificial (IA) en el que las personas retratadas saludan cuando pasa alguien por delante, son algunas de las innovaciones tecnológicas que se presentaron este miércoles en el New Jersey Spring Tech Showcase, en Maplewood (Nueva Jersey). […]

Bruselas acusa a Meta de no impedir el acceso a Facebook e Instagram a menores de 13 años

Bruselas .- La Comisión Europea acusó este miércoles a la tecnológica estadounidense Meta de incumplir la ley de servicios digitales (DSA) de la Unión Europea por no impedir que los menores de 13 años accedan a Facebook e Instagram. Por eso, obligó a ambas redes sociales a «reforzar sus medidas para prevenir, detectar y eliminar (las […]

Presentan nuevas tecnologías para transformar el turismo médico desde la RD

Santo Domingo. — La empresa estadounidense heva, cofundada por el dominicano Héctor Terrero, presentó en Santo Domingo dos nuevas soluciones tecnológicas CareGraph y heva Wallet con las que busca transformar el turismo médico global, apostando por mayor eficiencia, trazabilidad y seguridad en la atención a pacientes internacionales. La compañía se posiciona como una plataforma integral […]
  • Revisa tu celular antes de comprar