Un implante cerebral con IA permitió a un paciente sin habla comunicarse en inglés y español

Científicos de la Universidad de California, en San Francisco, Estados Unidos, crearon un implante cerebral que permitió que un hombre bilingüe con parálisis y sin habla tras un ACV pueda expresarse por primera vez en dos idiomas, español e inglés, de acuerdo a su preferencia. El avance reveló cómo el cerebro procesa distintas lenguas de forma simultánea.

El trabajo de científicos del Centro de Ingeniería Neural y Prótesis de la universidad abre nuevos caminos para entender el procesamiento del lenguaje en el cerebro humano y marca un gran avance en el campo de las neuroprótesis para la restauración del habla.

Un artículo publicado en Nature Biomedical Engineering que describe la investigación identifica al hombre como Pancho, un nombre ficticio para preservar su identidad. El hombre puede gemir y gruñir pero no puede articular palabras claras. Es un hablante nativo de español que aprendió inglés cuando ya era adulto.

Bajo el liderazgo del doctor Edward Chang, un neurocirujano que se desempeña como codirector del Centro de Prótesis e Ingeniería Neural de Universidad de California en San Francisco (UCSF), Pancho recibió un implante neuronal en febrero de 2019, lo que permitió a los científicos comenzar a rastrear su actividad cerebral.

Related Post

Utilizando un método de inteligencia artificial conocido como red neuronal, los investigadores pudieron entrenar el implante de Pancho para decodificar palabras basándose en la actividad cerebral producida cuando intentaba articularlas.

Este método de entrenamiento de IA básicamente permite que el implante cerebral, conocido científicamente como dispositivo de interfaz cerebro-computadora, procese datos de una manera algo similar al cerebro humano.

Después de descubrir que el cerebro de Pancho tenía “actividad cortical” en ambos idiomas años después de quedar paralizado, los científicos se dieron cuenta de que podían aprovechar eso para entrenar un implante cerebral bilingüe sin la necesidad de entrenar sistemas de decodificación específicos del idioma por separado.

“Aprovechamos este hallazgo para demostrar la transferencia de aprendizaje entre idiomas. Los datos recopilados en un primer idioma podrían acelerar significativamente el entrenamiento de un decodificador en el segundo idioma”, dijo el grupo de investigación de Chang en X, porque se basa en la actividad cerebral producida por los movimientos previstos del tracto vocal del participante, independientemente del idioma. Esto nos permitió entrenar un modelo que se generalizó en un conjunto compartido de sílabas en inglés y español”. (DIB)

Dejanos tu comentario
Compartir

Últimas noticias

Dos veinticinqueños en estado reservado y otros dos lesionados en choque en Ruta 205

Cuatro veinticinqueños sufrieron lesiones graves al colisionar frontalmente hoy pasado el mediodía la utilitaria Reanult…

abril 17, 2025

Ralinqueo: “El CAPS que LLA pretende destruir es una tremenda inversión en salud”

Duras críticas del presidente del Justicialismo

abril 16, 2025

Entregaron indumentaria a agentes de Protección Ciudadana de Riestra y Pedernales

La entrega fue realizada por los delegados municipales

abril 16, 2025

Reparan y reacondicionan maquinaria vial para las delegaciones veinticinqueñas

A través de la Subsecretaría de Servicios Públicos, a cargo de Luis Balenzano

abril 16, 2025

El Municipio entregó los primeros aportes económico a clubes

Recibieron dicho apoyo fueron La Lola, Cazón y Unión Apeadero, quienes presentaron la documentación correspondiente.

abril 16, 2025

Vuelven los vouchers educativos: Cuando comienza la inscripción y cómo será este año

Solo pueden acceder al beneficio económico las familias cuyos ingresos no superen los 7 salarios…

abril 16, 2025