Permítame leer su mente: sé lo que está mirando. Está a punto de llegar al final del primer párrafo.
Debo confesar que la telepatía no es mi punto fuerte. Pero algo sorprendentemente parecido está surgiendo en el laboratorio. Sus percepciones del mundo exterior surgen mediante la actividad cerebral. Científicos en China han logrado realizar la ingeniería inversa de este proceso, utilizando la actividad cerebral para adivinar lo que la gente está mirando. Su algoritmo, el cual analiza imágenes de resonancias magnéticas funcionales (IRMF) del cerebro recopiladas mientras los voluntarios observan dígitos y letras, es capaz de proporcionar descripciones claras de las imágenes originales.
Ha sido llamado un algoritmo de lectura de la mente; una descripción más exacta sería un algoritmo de "reconstrucción del campo visual". El trabajo, conducido por Changde Du en el Centro de Investigaciones de Inteligencia Inspirada en el Cerebro, de Beijing, representa un paso importante para el aprendizaje automático, porque el algoritmo integra la información derivada de la corteza visual conforme construye la imagen reimaginada.
Las IRMf del cerebro producen escaneos cerebrales sumamente "ruidosos". Dado que el cerebro es tridimensional, los datos emergen en forma de píxeles en 3D, llamados vóxeles. Utilizando técnicas de aprendizaje profundo, el algoritmo del Sr. Du —llamado Modelo Generativo Multivista de Arquitectura Profunda— pudo armar esos vóxeles y eliminar buena parte del ruido. El siguiente paso era convertir esos vóxeles reconstruidos de nuevo en estímulos visuales en 2D, como la letra B o la letra N, que los voluntarios estaban mirando mientras estaban inmersos en el escáner IRMf.
Lo que es válido para la corteza visual también es válido para nuestro sistema auditivo: si escuchamos una canción, la parte auditiva del cerebro se pone en acción. Científicos en EEUU han desarrollado un programa que puede convertir la activación asociada de las neuronas en sonidos reales. Adam Piore, autor de un libro de bioingeniería, ha descrito cómo el software transforma las señales cerebrales emitidas por un paciente que escucha música en los inconfundibles acordes de una canción de Pink Floyd. La investigación tiene, en última instancia, la intención de darles voz a los pacientes que, quizás por un accidente cerebrovascular o un accidente, han perdido la capacidad del habla.
Estas tecnologías convierten los pensamientos en imágenes y sonidos. En resumen, la ciencia está muy cerca de poder acceder a lo que está dentro de nuestras cabezas. Si tales algoritmos cayeran en manos de la industria de la publicidad, podríamos ser acechados digitalmente no sólo por imágenes de hoteles y bienes de consumo sobre los que alguna hicimos clic, sino también por las imágenes que vimos o las canciones que escuchamos.
Esto requeriría acceso a las señales cerebrales, ¿pero quién apostaría en contra de ese futuro? Actualmente, millones de personas, mediante las pulseras de actividad, se apuntan para que les hagan gráficas de sus señales fisiológicas todo el tiempo. Para los futuristas, el cerebro parece la próxima frontera lógica en la medición corporal.
Elon Musk definitivamente cree que así debe ser. En marzo, el empresario reveló una empresa "startup" llamada Neuralink, que tiene la misión de potenciar el cerebro humano para mantenerlo un paso adelante de la inteligencia artificial. La idea es crear una interfaz cerebro-máquina que les permita a los seres humanos y a las máquinas comunicarse a la perfección, convirtiendo las señales del cerebro en señales digitales y viceversa. Ya se han dado los primeros pasos en otros lugares: cursores de computadoras, y prótesis avanzadas, ya se pueden mover sólo con el pensamiento.
Conforme los investigadores sondean los secretos de nuestras mentes, descubrirán maneras de calcular la información privada y las intenciones que no hemos revelado. Permítame leer su mente otra vez: los algoritmos de lectura de la mente avanzan por una línea muy fina entre lo genial y lo espeluznante.
No hay comentarios:
Publicar un comentario