Un equipo liderado por Edward Chang, de la Universidad de California en San Francisco, ha permitido a una mujer con parálisis severa por un derrame cerebral ‘hablar’ a través de un avatar digital.
Quizá te pueda interesar: Revelan función ‘tóxica’ en iPhone que se puede activar muy fácil
Los avances tecnológicos en diferentes grados han logrado devolverles a varias personas como Ann, la capacidad de comunicarse traduciendo la actividad cerebral en palabras. En ese sentido, se han desarrollado dos nuevos tipos de implantes que hacen más rápido, preciso y variado dicho proceso.
Uno de ellos es una interfaz cerebro-ordenador (BCI), que no sólo traduce la actividad neuronal en texto, sino que se complementa con un avatar digital que puede sintetizar la voz y algunas expresiones faciales.
Cabe destacar que los nuevos dispositivos generan texto con un promedio de 78 y 62 palabras por minuto, respectivamente, aún lejos de las 160 de la conversación normal, pero sí por encima de otras pruebas, además amplían el vocabulario y reducen la tasa de errores.
De acuerdo con Frank Willet, coordinador de uno de los estudios de la Universidad de Stanford:
“Con estos nuevos estudios, es posible imaginar un futuro en el que podamos devolver la fluidez de la conversación a alguien con parálisis, permitiéndole decir libremente lo que quiera con una precisión lo bastante alta como para que se le entienda con fiabilidad”.
En el caso de Ann, el equipo implantó un rectángulo fino como un papel con 253 electrodos en la superficie de su cerebro, en zonas fundamentales para el habla, los cuales interceptan las señales cerebrales que deberían mover los músculos de la lengua, la mandíbula, la laringe y la cara.
Posteriormente, se tuvo que entrenar un modelo de aprendizaje profundo para reconocer las señales cerebrales únicas de Ann relacionadas con el habla mientras ella intentaba pronunciar frases completas en silencio.
Esta inteligencia artificial no reconoce palabras, pero sí los 39 fonemas que componen el inglés hablado, lo que mejoró la precisión del sistema y lo hizo tres veces más rápido.
Además de convertir las señales del habla en texto, se creo un algoritmo para sintetizar el habla, que personalizaron para que sonara como la voz de Ann antes de la lesión.
También puedes leer: Youtube prueba función para buscar canciones tarareándolas
Finalmente, el sistema se completa con un avatar animado en la pantalla del ordenador por un software que simula los movimientos musculares de la cara al hablar y además reproduce expresiones como felicidad, sorpresa o tristeza.