Científicos japoneses diseñan una IA para leer la mente humana

 

Yu Takagi no podía creer lo que veía. Sentado solo en su escritorio un sábado por la tarde de septiembre, observó con asombro cómo la inteligencia artificial decodificaba la actividad cerebral de un sujeto para crear imágenes de lo que veía en una pantalla.

«Todavía recuerdo cuando vi la primera [AI-generated] imágenes”, dijo Takagi, un neurocientífico de 34 años y profesor asistente en la Universidad de Osaka, a Al Jazeera.

«Fui al baño y me miré en el espejo y vi mi cara y pensé: ‘Está bien, eso es normal. Tal vez no me estoy volviendo loco.

Takagi y su equipo utilizaron Stable Diffusion (SD), un modelo de IA de aprendizaje profundo desarrollado en Alemania en 2022, para analizar los escáneres cerebrales de sujetos de prueba que mostraban hasta 10 000 imágenes dentro de una máquina de resonancia magnética.

Después de que Takagi y su socio de investigación, Shinji Nishimoto, construyeran un modelo simple para «traducir» la actividad cerebral a un formato legible, Stable Diffusion pudo generar imágenes de alta fidelidad que se parecían extrañamente a las originales.

La IA podría hacer esto incluso si las imágenes no se mostraran de antemano o no se entrenaran de ninguna manera para fabricar los resultados.

«Realmente no esperábamos este tipo de resultado», dijo Takagi.

Takagi señaló que, en este momento, el avance no representa la lectura de la mente: la IA solo puede producir imágenes que una persona ha visto.

«No es leer la mente», dijo Takagi. «Desafortunadamente, hay muchos malentendidos en nuestra investigación».

“No podemos decodificar imaginaciones o sueños; Creemos que eso es demasiado optimista. Pero, por supuesto, hay potencial en el futuro.

Sin embargo, el desarrollo planteó preocupaciones sobre cómo se podría utilizar dicha tecnología en el futuro.

A pesar de su entusiasmo, el propio Takagi reconoce que tales temores no son infundados, dada la posibilidad de abuso por parte de personas malintencionadas o sin consentimiento.

“Para nosotros, los temas de privacidad son lo más importante. Si algún gobierno o institución puede leer la mente de las personas es un tema muy delicado”, dijo Takagi. «Es necesario que haya discusiones de alto nivel para asegurarse de que eso no pueda suceder».

Yu Takagi y su colega han desarrollado un método de uso de IA para analizar y representar visualmente la actividad cerebral [Yu Takagi]

La investigación de Takagi y Nishimoto ha generado mucho revuelo en la comunidad tecnológica, que se ha entusiasmado con los vertiginosos avances en IA, incluido el lanzamiento de ChatGPT, que produce un habla similar a la humana en respuesta a las indicaciones de un usuario.

Su artículo que detalla los resultados se ubica en el 1% superior en cuanto a participación entre más de 23 millones de resultados de búsqueda rastreados hasta la fecha, según Altmetric, una empresa de datos.

El estudio también ha sido aceptado en la Conferencia sobre visión por computadora y reconocimiento de patrones (CVPR), programada para junio de 2023, un camino común para legitimar importantes avances en neurociencia.

Aun así, Takagi y Nishimoto son reacios a dejarse llevar por sus descubrimientos.

Takagi argumenta que hay dos cuellos de botella principales para la verdadera lectura de la mente: la tecnología de escaneo cerebral y la propia IA.

A pesar de los avances en las interfaces neuronales, incluidas las computadoras cerebrales de electroencefalografía (EEG), que detectan ondas cerebrales a través de electrodos conectados a la cabeza de un sujeto, y fMRI, que mide la actividad cerebral detectando cambios asociados con el flujo sanguíneo, los científicos creen que podríamos estar a décadas de ser capaz de decodificar con precisión y fiabilidad experiencias visuales imaginadas.

Yu Takagi y su colega usaron una resonancia magnética para escanear los cerebros de los sujetos para su experimento. [Yu Takagi]

En la investigación de Takagi y Nishimoto, los sujetos tenían que sentarse en un escáner fMRI hasta 40 horas, lo cual era costoso y consumía mucho tiempo.

En un artículo de 2021, investigadores del Instituto Avanzado de Ciencia y Tecnología de Corea señalaron que las interfaces neuronales convencionales «carecen de estabilidad de grabación crónica» debido a la naturaleza suave y compleja del tejido neuronal, que reacciona de manera inusual cuando entra en contacto con sintético. interfaces

Además, los investigadores escribieron: “Las técnicas de grabación actuales generalmente se basan en vías eléctricas para transferir la señal, que es sensible al ruido eléctrico del entorno. Dado que el ruido eléctrico perturba en gran medida la sensibilidad, la obtención de señales finas de la región objetivo con alta sensibilidad aún no es una tarea fácil. »

Las limitaciones actuales de la IA presentan un segundo cuello de botella, aunque Takagi reconoce que estas capacidades avanzan día a día.

“Soy optimista con la IA, pero no con la tecnología del cerebro”, dijo Takagi. «Creo que ese es el consenso entre los neurocientíficos».

El marco de Takagi y Nishimoto podría usarse con dispositivos de escaneo cerebral que no sean MRI, como EEG o tecnologías hiperinvasivas como los implantes de computadora cerebral desarrollados por Neuralink de Elon Musk.

Aun así, Takagi cree que actualmente hay pocas aplicaciones prácticas para sus experimentos de IA.

Para empezar, el método aún no se puede transferir a nuevos sujetos. Dado que la forma del cerebro difiere de una persona a otra, no se puede aplicar directamente un modelo creado para una persona a otra.

Pero Takagi ve un futuro en el que podría usarse con fines clínicos, de comunicación o incluso de entretenimiento.

«Es difícil predecir cuál podría ser una aplicación clínica exitosa en esta etapa porque todavía es una investigación muy exploratoria», dijo a Al Jazeera Ricardo Silva, profesor de neurociencia computacional en el University College London e investigador del Instituto Alan Turing.

«Esto puede resultar ser una forma adicional de desarrollar un marcador para la detección y evaluación de la progresión de la enfermedad de Alzheimer al evaluar cómo se pueden detectar anomalías persistentes en imágenes de tareas de navegación visual reconstruidas a partir de la actividad cerebral de un paciente».

Algunos científicos creen que la IA podría usarse en el futuro para detectar enfermedades como la enfermedad de Alzheimer [Yu Takagi]

Silva comparte sus preocupaciones sobre la ética de la tecnología que algún día podría usarse para leer la mente.

“La pregunta más apremiante es hasta qué punto se debe obligar al recopilador de datos a revelar en detalle los usos de los datos recopilados”, dijo.

«Una cosa es registrarse como un medio para tomar una instantánea de su yo más joven para, tal vez, uso clínico futuro… Otra cosa completamente diferente es usarlo en tareas secundarias como marketing, o peor aún, usarlo en casos legales contra alguien». intereses.

Aún así, Takagi y su compañero no tienen intención de ralentizar su búsqueda. Ya están planificando la segunda versión de su proyecto, que se centrará en mejorar la tecnología y aplicarla a otras modalidades.

«Ahora estamos desarrollando una mucho mejor [image] técnica de reconstrucción”, dijo Takagi. «Y está sucediendo a un ritmo muy rápido».

..

Comentarios

Entradas populares