1. Inicio
  2. Noticias de Economia en ABC
  3. Reproducir los sueños con inteligencia artificial, la última frontera de las startups visionarias
Noticias de Economia en ABC

Reproducir los sueños con inteligencia artificial, la última frontera de las startups visionarias

La inteligencia artificial ha conseguido abrir una ventana a las películas de nuestra mente . Son las palabras de Jack Gallant, uno de los pioneros investigadores que persiguen este objetivo. Algo que podría parecer lejano, sino fuera por el hito conseguido por científicos japoneses de la Escuela de Posgrado de Biociencias de Vanguardia de la Universidad de Osaka. Han logrado convertir las señales generadas por el cerebro en imágenes de alta definición. ABC ha tenido la oportunidad de hablar con Yu Takagi , uno de los autores del proyecto y ha señalado que «potencialmente, podemos aplicar esta técnica para decodificar contenidos imaginados . Tal opción podría proporcionar una base para desarrollar interfaces cerebro-máquina para uso médico». Y permitiría también ver nuestros sueños o pensamientos en un monitor . Hubo otros intentos en el pasado por la universidad de Berkeley, pero los resultados no dieron con imágenes tan nítidas, como aseguran que ocurre ahora. Este ambicioso proyecto da una nueva dimensión a aventura empresariales como la de Synchron. La compañía de Tom Oxley, ha desarrollado una interfaz cerebro-ordenador o BCI, implantable. Recoge y transmite de forma inalámbrica información directamente desde el cerebro. NextSense también ha creado unos auriculares que permiten explorar el cerebro a través de los oídos y registrar las señales eléctricas. Y Neuralink, de Elon Musk. persigue a futuro usar chips cerebrales que permitirán grabar y reproducir nuestros recuerdos. Noticia Relacionada Soy un ‘faster’: la impaciente sociedad que vive a doble velocidad Alexia Columba Jerez Necesitan escuchar los audios de Whatsapp o ver películas más rápido de lo normal; el tiempo les consume, sedientos de estimulación y eficiencia máxima… Son el síntoma acelerado de un mundo moderno Takagi cree que es posible usar la técnica que investiga para decodificar el audio que estamos oyendo en vigilia. Y no solo para eso:en los sueños no solo vemos imágenes, oímos sonidos a los que podríamos también tener acceso. Se podría usar además en otros animales, pero en este caso sería difícil determinar la precisión. Iñigo Gabilondo , coordinador del Comité Ad-Hoc de nuevas tecnologías de la Sociedad Española de Neurología (TecnoSEN), explica cómo funciona la tecnología plasmada en el estudio de Osaka. «Lo que hacen es hacer resonancias magnéticas a una serie de personas, mientras se les están mostrando una serie de imágenes. La ‘resonancia magnética por tareas’ permite medir de forma indirecta la actividad cerebral en cada parte del cerebro. Cuando a la persona la sometes a una tarea visual, la región que se encarga de las funciones visuales se activa, en concreto la región occipital del cerebro». Y gracias a los nuevos algoritmos de la IA generativa, que se denomina Latent Diffusion Models, lo que se hace es extraer parámetros que no son fácilmente entendibles de esas imágenes de la resonancia magnética funcional de las personas que sometemos a estímulos visuales. «La ventaja es que contamos con las fotos originales que le enseño al paciente para contrastarlas con las imágenes generadas por la IA y determinar el grado de fidelidad obtenido», establece Gabilondo. Hacer lo mismo cuando alguien está durmiendo sería más complejo porque no tenemos una imagen de referencia a la que acudir, pero para Gabilondo eso no quiere decir que no vaya a ser realidad o en los próximos años. Y empezar por lo visual o el audio es lo más lógico porque sabemos cuáles son las partes del cerebro que se activan con estas actividades, pero cuando hablamos de decodificar lo que pensamos, «las redes cerebrales que comandan el pensamiento son mucho más sofisticadas». Aplicaciones Gabilondo señala que las aplicaciones del conocimiento que extraemos de un proyecto como el de Osaka pueden ser infinitas. Podría usarse una vez se afine la tecnología en pacientes ciegos o con lesiones cerebrales . «Unas cámaras miniaturizadas que estuvieran, por ejemplo, en forma de lentes de contacto en el globo ocular registrarían nuestro entorno y podrían llevar esa información de las cámaras a la corteza occipital e insertarla en la actividad cerebral para que personas ciegas fueran capaces de ver». Otras aplicaciones son las industriales, turísticas, incluso militares, que pueden tener, en muchos casos riesgos de cara a la privacidad mental», establece el investigador del SEN. Potencialidades como esta explican que según la firma PitchBook, la inversión en neurotecnología se disparase en 2017 a 171 millones de dólares y en 2021 alcanzase los 378 millones. Con previsiones de que será un mercado de 3.000 millones para 2025, que se duplicará para finales de la década. MÁS INFORMACIÓN Avatares digitales del cerebro para ofrecer respuestas a la carta frente a la enfermedad Rafael Yuste:«Las guerras se generan porque hay cerebros con reacciones agresivas que contagian a otros» Interlingua, el increíble idioma que todos pueden entender y el sueño tecnológico de derribar la torre de Babel Las implicaciones de este proyecto son éticas y de privacidad. ¿Podría en un futuro hackearse el cerebro? Esto implica no solo ver lo que pensamos, también la posibilidad de introducir nuevos pensamientos o manipularlos. El desafío es avanzar en los neuroderechos que garanticen la inviolabilidad de nuestras mentes. Y el reto en los próximos años es conseguir miniaturizar esta tecnología y hacerla portable y accesible a todos. Por ahora, la puerta que se ha abierto resulta increíble e inevitablemente atrayente impulsando a las mentes más creativas.

Entrada siguiente
Internacional, innovador, futuro laboral… claves para acertar al elegir un postgrado
Entrada anterior
El hidrógeno verde explicado en gráficos