Aunque la inteligencia artificial (IA) todavía no es capaz de leernos la mente de forma literal, un experimento llevado a cabo recientemente en Japón demuestra que ya puede describir lo que vemos e incluso lo que recordamos.
El investigador Tomoyasu Horikawa, de los Laboratorios de Ciencias de la Comunicación de NTT, ha desarrollado una técnica pionera que convierte imágenes mentales en texto a partir de la actividad cerebral. Se conoce como mind-captioning o subtitulación mental.
Cómo funciona esta técnica
El proceso comienza con un escaneo cerebral mediante una resonancia magnética funcional (fMRI). Seis voluntarios observaron 2.180 videoclips breves y mudos que mostraban objetos, animales, personas, escenas y acciones variadas. Mientras tanto, el escáner registraba qué zonas del cerebro se activaban ante cada estímulo visual.
Los subtítulos originales de esos videos se transformaron en secuencias numéricas mediante grandes modelos lingüísticos. Con esta información, Horikawa entrenó decodificadores de IA: sistemas más simples encargados de asociar patrones neuronales con esas secuencias numéricas.
Una vez entrenados, los decodificadores se enfrentaron a un reto mayor. Los participantes vieron nuevos videos que la IA no conocía e incluso evocaron mentalmente videos que ya habían visto. El sistema debía entonces deducir, solo a partir de la actividad cerebral, cuál era el contenido visual. Un algoritmo adicional generó gradualmente las frases que mejor coincidían con los patrones neuronales descodificados.
Esto dio como resultado descripciones coherentes, en inglés, de escenas reales y recordadas, aun cuando los voluntarios no eran hablantes nativos del idioma. Las frases no replicaban palabra por palabra los subtítulos originales, pero captaban la esencia de la escena, demostrando que la IA podía interpretar percepciones directas e imágenes mentales.
Un avance científico con límites
No hay duda de que se trata de un gran logro, pero este método todavía está lejos de convertirse en un lector de pensamientos. Requiere horas de escaneo personalizado, no sirve de una persona a otra y alcanza precisiones modestas, entre el 40% y el 50%. Además, funciona únicamente en las condiciones controladas de un laboratorio y se basa en estímulos visuales suficientemente típicos. Las escenas muy inusuales o la imaginación abstracta siguen siendo imposibles de decodificar.
Como explica el propio Horikawa, el sistema no puede leer pensamientos privados, ideas complejas o intenciones internas. Solo detecta patrones neuronales vinculados a imágenes visuales relativamente predecibles.
Aplicaciones médicas prometedoras
A pesar de las limitaciones, este avance representa un enorme paso para la neurotecnología aplicada a la salud. Dado que el método funciona incluso sin utilizar la red del lenguaje del cerebro, podría ayudar a personas con enfermedades que afectan la expresión verbal, como la afasia, donde la capacidad de hablar o comprender está dañada, o la esclerosis lateral amiotrófica (ELA), una enfermedad neurodegenerativa que puede impedir la producción de habla.
Expertos como el psicólogo Scott Barry Kaufman consideran que esta tecnología podría ser especialmente valiosa para quienes tienen dificultades severas de comunicación, incluidos los autistas no verbales.
La privacidad mental, un desafío ético
Frente a avances de este tipo, surgen las inevitables inquietudes. ¿Qué ocurre cuando la frontera entre lo privado y lo público llega hasta la mente? Especialistas en neuroética como Marcello Ienca advierten que estas herramientas representan "el máximo desafío en privacidad", sobre todo si en el futuro se combinan con dispositivos de consumo masivo como implantes neuronales.
La protección legal de la actividad mental aparece como una necesidad urgente. Investigadores como Lukasz Szoszkiewicz señalan que los datos neuronales deben tratarse como información altamente sensible y proponen mecanismos de "desbloqueo mental" controlados por el usuario para evitar filtraciones de pensamientos.
El mind-captioning es solo un primer paso, pero muy grande, que demuestra que la imaginación humana puede convertirse en texto mediante IA. Aunque no lea pensamientos complejos ni tenga utilidad práctica inmediata, abre una puerta hacia la comunicación entre el cerebro y la máquina.