{"id":59475,"date":"2024-08-28T01:22:19","date_gmt":"2024-08-28T06:22:19","guid":{"rendered":"https:\/\/einsteresante.com\/?p=59475"},"modified":"2024-08-28T01:22:20","modified_gmt":"2024-08-28T06:22:20","slug":"la-ia-y-un-implante-cerebral-permiten-a-un-paciente-con-ela-hablar-facilmente-con-su-familia","status":"publish","type":"post","link":"https:\/\/einsteresante.com\/index.php\/2024\/08\/28\/la-ia-y-un-implante-cerebral-permiten-a-un-paciente-con-ela-hablar-facilmente-con-su-familia\/","title":{"rendered":"La IA y un implante cerebral permiten a un paciente con ELA hablar f\u00e1cilmente con su familia"},"content":{"rendered":"\n<p><em>Por<\/em>: <a href=\"https:\/\/theconversation.com\/profiles\/nicholas-card-1635329\">Nicholas Card<\/a><\/p>\n\n\n\n<p>Las interfaces cerebro-ordenador son una tecnolog\u00eda revolucionaria que puede ayudar a las personas paralizadas a recuperar funciones que han perdido, como mover una mano. Estos dispositivos registran las se\u00f1ales del cerebro y descifran la acci\u00f3n que el usuario pretende realizar, evitando los nervios da\u00f1ados o degradados que normalmente transmitir\u00edan esas se\u00f1ales cerebrales para controlar los m\u00fasculos.<\/p>\n\n\n\n<p>Desde 2006, las demostraciones de interfaces cerebro-ordenador en humanos se han centrado principalmente en restaurar los movimientos de los brazos y las manos al permitir que las personas controlen cursores de ordenador o brazos rob\u00f3ticos. Recientemente, los investigadores han comenzado a desarrollar interfaces cerebro-ordenador de voz para restablecer la comunicaci\u00f3n de las personas que no pueden hablar.<\/p>\n\n\n\n<p>Cuando el usuario intenta hablar, estas interfaces cerebro-ordenador registran las se\u00f1ales cerebrales \u00fanicas de la persona asociadas con los movimientos musculares intentados para hablar y luego las traducen en palabras. Estas palabras pueden luego mostrarse como texto en una pantalla o pronunciarse en voz alta mediante un software de texto a voz.<\/p>\n\n\n\n<p>Soy investigador en el Laboratorio de Neuropr\u00f3tesis de la Universidad de California, Davis, que forma parte del ensayo cl\u00ednico BrainGate2. Mis colegas y yo demostramos recientemente una interfaz cerebro-computadora de habla que descifra el intento de habla de un hombre con ELA, o esclerosis lateral amiotr\u00f3fica, tambi\u00e9n conocida como enfermedad de Lou Gehrig. La interfaz convierte las se\u00f1ales neuronales en texto con una precisi\u00f3n de m\u00e1s del 97%. La clave de nuestro sistema es un conjunto de modelos de lenguaje de inteligencia artificial: redes neuronales artificiales que ayudan a interpretar las naturales.<\/p>\n\n\n\n<p><strong>Registro de se\u00f1ales cerebrales<br><\/strong>El primer paso en nuestra interfaz cerebro-computadora de habla es registrar las se\u00f1ales cerebrales. Existen varias fuentes de se\u00f1ales cerebrales, algunas de las cuales requieren cirug\u00eda para registrarse. Los dispositivos de grabaci\u00f3n implantados quir\u00fargicamente pueden capturar se\u00f1ales cerebrales de alta calidad porque se colocan m\u00e1s cerca de las neuronas, lo que da como resultado se\u00f1ales m\u00e1s fuertes con menos interferencias. Estos dispositivos de grabaci\u00f3n neuronal incluyen rejillas de electrodos colocados en la superficie del cerebro o electrodos implantados directamente en el tejido cerebral.<\/p>\n\n\n\n<p>En nuestro estudio, utilizamos conjuntos de electrodos colocados quir\u00fargicamente en la corteza motora del habla, la parte del cerebro que controla los m\u00fasculos relacionados con el habla, del participante, Casey Harrell. Registramos la actividad neuronal de 256 electrodos mientras Harrell intentaba hablar.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/einsteresante.com\/wp-content\/uploads\/2024\/08\/image-76.png\" alt=\"\" class=\"wp-image-59501\"\/><figcaption class=\"wp-element-caption\">Un conjunto de 64 electrodos que se insertan en el tejido cerebral registra las se\u00f1ales neuronales. Cr\u00e9dito de la imagen: UC Davis Health.<\/figcaption><\/figure>\n\n\n\n<p><strong>Descifrar las se\u00f1ales cerebrales<br><\/strong>El siguiente desaf\u00edo es relacionar las complejas se\u00f1ales cerebrales con las palabras que el usuario est\u00e1 tratando de decir. Un enfoque es mapear los patrones de actividad neuronal directamente con las palabras habladas. Este m\u00e9todo requiere registrar las se\u00f1ales cerebrales correspondientes a cada palabra varias veces para identificar la relaci\u00f3n promedio entre la actividad neuronal y palabras espec\u00edficas. Si bien esta estrategia funciona bien para vocabularios peque\u00f1os, como se demostr\u00f3 en un estudio de 2021 con un vocabulario de 50 palabras, se vuelve poco pr\u00e1ctica para vocabularios m\u00e1s grandes. Imagina pedirle al usuario de la interfaz cerebro-computadora que intente decir todas las palabras del diccionario varias veces: podr\u00eda llevar meses y a\u00fan as\u00ed no funcionar\u00eda con palabras nuevas.<\/p>\n\n\n\n<p>En cambio, utilizamos una estrategia alternativa: mapear las se\u00f1ales cerebrales con los fonemas, las unidades b\u00e1sicas de sonido que forman las palabras. En ingl\u00e9s, hay 39 fonemas, incluidos ch, er, oo, pl y sh, que se pueden combinar para formar cualquier palabra. Podemos medir la actividad neuronal asociada a cada fonema varias veces con solo pedirle al participante que lea algunas oraciones en voz alta. Al asignar con precisi\u00f3n la actividad neuronal a los fonemas, podemos unirlos en cualquier palabra en ingl\u00e9s, incluso aquellas con las que el sistema no fue entrenado expl\u00edcitamente.<\/p>\n\n\n\n<p>Para asignar se\u00f1ales cerebrales a fonemas, utilizamos modelos avanzados de aprendizaje autom\u00e1tico. Estos modelos son particularmente adecuados para esta tarea debido a su capacidad para encontrar patrones en grandes cantidades de datos complejos que ser\u00edan imposibles de discernir para los humanos. Piensa en estos modelos como oyentes superinteligentes que pueden distinguir informaci\u00f3n importante de se\u00f1ales cerebrales ruidosas, de manera similar a como t\u00fa podr\u00edas concentrarte en una conversaci\u00f3n en una habitaci\u00f3n llena de gente. Usando estos modelos, pudimos descifrar secuencias de fonemas durante un intento de habla con m\u00e1s del 90% de precisi\u00f3n.<\/p>\n\n\n\n<p><strong>De fonemas a palabras<br><\/strong>Una vez que tenemos las secuencias de fonemas descifradas, necesitamos convertirlas en palabras y oraciones. Esto es un desaf\u00edo, especialmente si la secuencia de fonemas descifrada no es perfectamente precisa. Para resolver este rompecabezas, utilizamos dos tipos complementarios de modelos de lenguaje de aprendizaje autom\u00e1tico.<\/p>\n\n\n\n<p>El primero son los modelos de lenguaje de n-gramas, que predicen qu\u00e9 palabra es m\u00e1s probable que siga a un conjunto de n palabras. Entrenamos un modelo de lenguaje de 5-gramas, o cinco palabras, en millones de oraciones para predecir la probabilidad de una palabra en funci\u00f3n de las cuatro palabras anteriores, capturando el contexto local y las frases comunes. Por ejemplo, despu\u00e9s de &#8220;soy muy bueno&#8221;, podr\u00eda sugerir &#8220;hoy&#8221; como m\u00e1s probable que &#8220;patata&#8221;. Usando este modelo, convertimos nuestras secuencias de fonemas en las 100 secuencias de palabras m\u00e1s probables, cada una con una probabilidad asociada.<\/p>\n\n\n\n<p>El segundo son los modelos de lenguaje grandes, que impulsan los chatbots de IA y tambi\u00e9n predicen qu\u00e9 palabras son m\u00e1s probables que sigan a otras. Usamos modelos de lenguaje grandes para refinar nuestras elecciones. Estos modelos, entrenados con grandes cantidades de textos diversos, tienen una comprensi\u00f3n m\u00e1s amplia de la estructura y el significado del lenguaje. Nos ayudan a determinar cu\u00e1l de nuestras 100 oraciones candidatas tiene m\u00e1s sentido en un contexto m\u00e1s amplio.<\/p>\n\n\n\n<p>Al equilibrar cuidadosamente las probabilidades del modelo de n-gramas, el modelo de lenguaje amplio y nuestras predicciones iniciales de fonemas, podemos hacer una suposici\u00f3n muy bien fundamentada sobre lo que el usuario de la interfaz cerebro-computadora est\u00e1 tratando de decir. Este proceso de varios pasos nos permite manejar las incertidumbres en la decodificaci\u00f3n de fonemas y producir oraciones coherentes y apropiadas para el contexto.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/einsteresante.com\/wp-content\/uploads\/2024\/08\/image-75.png\" alt=\"\" class=\"wp-image-59499\"\/><figcaption class=\"wp-element-caption\">Este diagrama muestra c\u00f3mo la interfaz cerebro-computadora del habla de UC Davis descifra la actividad neuronal y la convierte en palabras. Cr\u00e9dito de la imagen: UC Davis Health.<\/figcaption><\/figure>\n\n\n\n<p><strong>Beneficios en el mundo real<br><\/strong>En la pr\u00e1ctica, esta estrategia de decodificaci\u00f3n del habla ha tenido un \u00e9xito notable. Hemos permitido que Casey Harrell, un hombre con ELA, &#8220;hable&#8221; con m\u00e1s del 97% de precisi\u00f3n utilizando \u00fanicamente sus pensamientos. Este avance le permite conversar f\u00e1cilmente con su familia y amigos por primera vez en a\u00f1os, todo en la comodidad de su propio hogar.<\/p>\n\n\n\n<p>Las interfaces de voz cerebro-computadora representan un avance significativo en la restauraci\u00f3n de la comunicaci\u00f3n. A medida que continuamos perfeccionando estos dispositivos, prometen dar voz a quienes han perdido la capacidad de hablar, reconect\u00e1ndolos con sus seres queridos y el mundo que los rodea.<\/p>\n\n\n\n<p>Sin embargo, a\u00fan quedan desaf\u00edos, como hacer que la tecnolog\u00eda sea m\u00e1s accesible, port\u00e1til y duradera a lo largo de los a\u00f1os de uso. A pesar de estos obst\u00e1culos, las interfaces de voz cerebro-computadora son un poderoso ejemplo de c\u00f3mo la ciencia y la tecnolog\u00eda pueden unirse para resolver problemas complejos y mejorar dr\u00e1sticamente la vida de las personas.<\/p>\n\n\n\n<p><em>Este art\u00edculo es una traducci\u00f3n de otro publicado en <a href=\"https:\/\/theconversation.com\/us\">The Conversation<\/a>. Puedes leer el texto original haciendo clic <a href=\"https:\/\/theconversation.com\/from-thoughts-to-words-how-ai-deciphers-neural-signals-to-help-a-man-with-als-speak-236998\">aqu\u00ed<\/a>.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Por: Nicholas Card Las interfaces cerebro-ordenador son una tecnolog\u00eda revolucionaria que puede ayudar a las personas paralizadas a recuperar funciones que han perdido, como mover una mano. Estos dispositivos registran las se\u00f1ales del cerebro y descifran la acci\u00f3n que el usuario pretende realizar, evitando los nervios da\u00f1ados o degradados que normalmente transmitir\u00edan esas se\u00f1ales cerebrales [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7],"tags":[],"class_list":["post-59475","post","type-post","status-publish","format-standard","hentry","category-salud-y-medicina"],"_links":{"self":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/59475","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/comments?post=59475"}],"version-history":[{"count":18,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/59475\/revisions"}],"predecessor-version":[{"id":59502,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/59475\/revisions\/59502"}],"wp:attachment":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/media?parent=59475"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/categories?post=59475"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/tags?post=59475"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}