Un algoritmo que 'lee la mente' podría ayudar a las personas que no pueden comunicarse
Este experimento produce una idea de los pensamientos de un paciente, pero no palabra por palabra
Un modelo alimentado por inteligencia artificial (IA) podría ayudar a aquellos que no pueden hablar ni escribir. Los científicos pueden 'leer' los pensamientos de la persona mediante un avance no invasivo que permitirá decodificar escáneres cerebrales.
Investigadores de la Universidad de Texas (Estados Unidos) han desarrollado un método que funciona alimentando imágenes de resonancia magnética funcional (fMRI) al algoritmo, que luego reconstruye estímulos arbitrarios que la persona está escuchando o pensando en lenguaje natural.
Las personas que participaron en el estudio, con problemas para comunicarse, escucharon historias narradas mientras los científicos escaneaban las áreas del cerebro asociadas con el lenguaje natural e ingresaban el resultado en el descodificador alimentado por IA que generaba un resumen de lo que estaba escuchando el individuo. Este resultado solo se había conseguido hasta el momento de forma invasiva, mediante la implantación de electrodos en el cerebro.
Sin embargo, este experimento produce una idea de los pensamientos de un paciente y no lo que están pensando palabra por palabra. Esto se debe, según informa Popular Mechanics, a que nuestros cerebros descomponen pensamientos complejos en partes más pequeñas que corresponden a un aspecto diferente del pensamiento completo.
Funcionamiento del cerebro
El cerebro tiene su propio alfabeto, compuesto por 42 elementos diferentes que hacen referencia a un concepto específico como tamaño, color o ubicación, y combina todo esto para formar nuestros pensamientos complejos. Cada una de estas 'letras' está impulsada por una zona diferente del cerebro, de manera que si se analizan las partes puede ser posible leer la mente de una persona.
Los desarrolladores del estudio registraron datos de resonancia magnética funcional de tres partes del cerebro (la red prefrontal, la red del lenguaje clásico y la red de asociación parietal-temporal-occipital), que están vinculadas con el lenguaje natural mientras un pequeño grupo de personas escuchaba 16 horas de pódcast.
Posteriormente, el algoritmo recibió los escaneos y comparó los patrones en el audio con los de la actividad cerebral registrada, según The Scientist. El sistema demostró que era capaz de tomar una grabación y transformarla en una historia basada en el contenido, que el equipo encontró que coincidía con la idea de las historias narradas.