Un implante cerebral con IA permitió a un paciente sin habla comunicarse en inglés y español

Científicos de la Universidad de California, en San Francisco, Estados Unidos, crearon un implante cerebral que permitió que un hombre bilingüe con parálisis y sin habla tras un ACV pueda expresarse por primera vez en dos idiomas, español e inglés, de acuerdo a su preferencia. El avance reveló cómo el cerebro procesa distintas lenguas de forma simultánea.

El trabajo de científicos del Centro de Ingeniería Neural y Prótesis de la universidad abre nuevos caminos para entender el procesamiento del lenguaje en el cerebro humano y marca un gran avance en el campo de las neuroprótesis para la restauración del habla.

Un artículo publicado en Nature Biomedical Engineering que describe la investigación identifica al hombre como Pancho, un nombre ficticio para preservar su identidad. El hombre puede gemir y gruñir pero no puede articular palabras claras. Es un hablante nativo de español que aprendió inglés cuando ya era adulto.

Bajo el liderazgo del doctor Edward Chang, un neurocirujano que se desempeña como codirector del Centro de Prótesis e Ingeniería Neural de Universidad de California en San Francisco (UCSF), Pancho recibió un implante neuronal en febrero de 2019, lo que permitió a los científicos comenzar a rastrear su actividad cerebral.

Related Post

Utilizando un método de inteligencia artificial conocido como red neuronal, los investigadores pudieron entrenar el implante de Pancho para decodificar palabras basándose en la actividad cerebral producida cuando intentaba articularlas.

Este método de entrenamiento de IA básicamente permite que el implante cerebral, conocido científicamente como dispositivo de interfaz cerebro-computadora, procese datos de una manera algo similar al cerebro humano.

Después de descubrir que el cerebro de Pancho tenía “actividad cortical” en ambos idiomas años después de quedar paralizado, los científicos se dieron cuenta de que podían aprovechar eso para entrenar un implante cerebral bilingüe sin la necesidad de entrenar sistemas de decodificación específicos del idioma por separado.

“Aprovechamos este hallazgo para demostrar la transferencia de aprendizaje entre idiomas. Los datos recopilados en un primer idioma podrían acelerar significativamente el entrenamiento de un decodificador en el segundo idioma”, dijo el grupo de investigación de Chang en X, porque se basa en la actividad cerebral producida por los movimientos previstos del tracto vocal del participante, independientemente del idioma. Esto nos permitió entrenar un modelo que se generalizó en un conjunto compartido de sílabas en inglés y español”. (DIB)

Dejanos tu comentario
Compartir

Últimas noticias

Jornada de plantación de árboles en Pedernales

En diferentes espacios del Boulevard Keen

julio 4, 2025

Inició la campaña de vacunación de gatos y perros

La primera jornada se llevó a cabo en la Plaza Vicente Martelli

julio 4, 2025

El Decano de la Facultad de Ingeniería de la UNLP visitó el CURS

El objetivo es consolidar alianzas estratégicas que impulsen el desarrollo académico y la investigación en…

julio 4, 2025

Siguen las fotomultas: la justicia ratificó que los controles con radar sigan adelante

La Justicia ratificó el funcionamiento de los cinemómetros (los radares de las fotomultas) en rutas…

julio 4, 2025

Por unanimidad, el PRO votó aliarse con La Libertad Avanza en la Provincia

El PRO y La Libertad Avanza acordaron los últimos detalles de su alianza electoral en…

julio 4, 2025

Intendentes de la ZCC se reunieron en Lobos

Participaron Etcheverry, Salomón y Egüen

julio 4, 2025