Páginas vistas

martes, 23 de junio de 2020

La inteligencia, un misterio sin descifrar


A pesar de que el cerebro constituye uno de los principales objetos de estudio científico, todavía no se ha conseguido comprender su estructura. Es lo que explica Mathew Cobb en su libro The Idea of the Brain (1), en el que expone el estado de las investigaciones en neurociencia. Por otro lado, la revista americana de tecnología Wired dedica su número de junio a la Inteligencia Artificial (IA) y sus diferencias con la humana. Ofrecemos una síntesis tanto del libro como del especial de Wired.
El interés de los científicos por comprender el cerebro es enorme, y sus hallazgos despiertan fascinación. “Todos los días oímos que se han hecho nuevos descubrimientos que arrojan más luz sobre cómo funcionan, junto con la promesa –o la amenaza– de nuevas tecnologías que nos permitirán hacer cosas inverosímiles, como leer la mente o incluso descubrir criminales”, observa Cobb, profesor de zoología en la Universidad de Manchester, en un extracto del libro publicado por The Guardian.
Sin embargo, aunque hay muchas investigaciones y se han propuesto numerosos modelos para explicar tanto la inteligencia como el funcionamiento del cerebro, “no hay ninguno aceptado ampliamente, ni que haya pasado la prueba decisiva de la comprobación empírica”, dice Cobb, que no oculta su preferencia por el emergentismo materialista para explicar la conciencia. 
¿Neuronas artificiales?
Parece que “nuestra comprensión del cerebro ha llegado a un punto muerto”, ya que “incluso a los científicos les resulta difícil encontrar una definición precisa de lo que es”. La información de la que disponemos “es extremadamente parcial. Por ejemplo, la mayoría de las investigaciones sobre los sentidos en el campo de la neurociencia se han centrado en el estudio de la vista, no en el del olfato. Y el olor es, desde una perspectiva conceptual y técnica, mucho más complejo”, subraya Cobb.
No hay que olvidar, además, que los estudios sobre IA se han realizado partiendo del modelo cerebral. Hay una creencia muy extendida que sugiere que solo estaremos en disposición de comprender la inteligencia cuando logremos simularla artificialmente, señala Kelly Clancy en “Is the Brain a Useful Model for Artificial Inteligence?”, publicado en el especial de Wired. Se trata de una tradición que, según esta experta en neurociencia del University College de Londres, “se remonta al anatomista español y premio Nobel Santiago Ramón y Cajal. (…) La forma en que este explicó las neuronas y sus redes se convirtió en la lente a través de la cual los científicos estudiaron el cerebro”. Ese ha sido también el modelo que ha permitido la construcción de las redes neuronales artificiales, como las que emplean los sistemas de deep learning.
“Lo que persiguen quienes se dedican a la IA y los neurocientíficos es elaborar una teoría universal de la inteligencia. Pero solo han logrado un montón de detalles confusos”
Para Clancy, sin embargo, no es apropiado “hablar de ‘redes artificiales neuronales’ como es habitual, sino que sería más preciso hablar de ‘redes artificiales similares a las neuronales’ (…) porque son bosquejos impresionistas de lo que ocurre en el cerebro”. En efecto, “a pesar de sus similitudes, podemos afirmar sin tapujos que las redes artificiales son poco cerebrales”, entre otras cosas porque no se conducen de la misma manera: por ejemplo, “aprenden mediante estrategias matemáticas que sería difícil, si no imposible, que un sistema biológico llevara a cabo”.
Los lastres de la investigación
“Los cerebros son fenómenos naturales y evolucionados, no dispositivos digitales –especifica Cobb–. Aunque a menudo se afirma que determinadas funciones se hallan localizadas en un lugar determinado del cerebro, como lo están en una máquina, esta creencia ha sido puesta en duda una y otra vez por los últimos descubrimientos neuroanatómicos, que han detectado conexiones insospechadas entre diversas regiones cerebrales, así como por las increíbles muestras de la plasticidad cerebral, gracias a la cual muchas personas a las que les faltan determinadas partes del cerebro viven con toda normalidad”.
En este sentido, se puede decir que para el avance de la ciencia ha supuesto un lastre tanto plantear la IA partiendo de la estructura del cerebro, como analizar el cerebro como si fuera una máquina (ver segunda parte de este artículo). “Es posible –advierte Clancy– que los modelos de IA no necesiten imitar el cerebro en absoluto. Los aviones vuelan a pesar de tener poco parecido con los pájaros”. Es más: la aviación pudo despegar cuando dejó de intentar imitar a las aves.
“En realidad –prosigue Cobb–, las estructuras de un cerebro y de un ordenador son completamente diferentes. Una neurona no se parece a un interruptor binario, que se puede apagar o encender, ni es susceptible de reflejarse en un esquema eléctrico. En lugar de ello, las neuronas responden analógicamente, en función de los estímulos que reciben. El sistema nervioso altera su funcionamiento a través de cambios en los patrones de activación de redes compuestas de numerosas células (…). A diferencia de cualquier dispositivo que hayamos imaginado, los nodos de estas redes no son puntos estables como transistores o válvulas, sino conjuntos de neuronas, compuestos por cientos, miles, decenas de miles de ellas (…). Estamos, a día de hoy, incluso muy lejos de comprender el funcionamiento de la más simple de estas redes”.
El mapa no es el territorio
En gran parte, las diferencias que se han descubierto entre la inteligencia humana y la artificial, junto con la constatación de la extraordinaria complejidad cerebral, explican la desorientación de las investigaciones actuales en este campo, a pesar de los esfuerzos y la inversión.
“Lo que persiguen quienes se dedican a la IA y los neurocientíficos es elaborar una teoría universal de la inteligencia, es decir, descubrir una serie de principios que sean válidos tanto para los tejidos vivos como para los compuestos de silicio. Pero solo han logrado un montón de detalles confusos”, advierte Clancy.
Y Cobb agrega: “Existe la creciente convicción entre algunos neurocientíficos de que nuestro camino futuro no está nada claro. Es difícil saber hacia dónde debemos dirigirnos, más allá de seguir simplemente recopilando una cantidad ingente de datos o de tener en cuenta el último enfoque experimental que se ha adoptado. En 2017, el neurocientífico francés Yves Frégnac se refirió a la moda actual que consiste en recopilar cantidades masivas de datos mediante proyectos muy costosos y a gran escala, señalando que el tsunami de información que se estaba produciendo solo provocaba que los progresos terminaran en un cuello de botella, porque, como indicó él mismo, ‘Big Data no es conocimiento’”.
No es lo mismo describir que comprender: puede que hayamos sido capaces de radiografiar en todos sus detalles los lóbulos cerebrales, pero eso no aclararía el misterioso modo de funcionar de la inteligencia, ni pondría en claro los secretos del cerebro.
“Parte del problema –comenta Clancy– es lo que señaló el escritor Lewis Carroll hace ya más de un siglo. Carroll imaginó un país tan obsesionado con la exactitud cartográfica que ampliaba una y otra vez la escala de sus mapas: primero, un centímetro por kilómetro; después, seis; y, al final, un kilómetro por kilómetro. Un mapa de esa magnitud es impresionante, no cabe duda. Pero ¿qué puede enseñar? Incluso aunque los neurocientíficos fueran capaces de recrear con exactitud la inteligencia a través de la simulación de cada molécula que existe en el cerebro, no habrían encontrado los principios subyacentes a la cognición”.
Un órgano versátil
Pero ¿cuál es esa característica tan especial del cerebro que impide su equiparación con las máquinas? Will Knight, especialista en IA de Wired, indica en su artículo para el especial (“It’s Called Artificial Intelligence, but What Is Intelligence?”) que es la versatilidad.
Escribe: “‘Lo que hace que la inteligencia humana sea especial es su adaptabilidad, su capacidad de generalización’, señala François Chollet, un conocido ingeniero dedicado a la IA (…), argumentando que es erróneo apreciar la IA teniendo en cuenta solo su capacidad para ejecutar tareas específicas. ‘Los humanos no empiezan con habilidades, sino con una amplia capacidad para adquirir multitud de ellas’, afirma. Chollet continúa señalando que ‘lo que muestra un jugador de ajedrez humano habilidoso no es per se la capacidad de jugar, sino su potencial para desarrollar cualquier tarea con un nivel de dificultad similar. Y ese potencial es muy diferente del primero’”.
Tampoco es semejante la forma de aprender de las máquinas y del cerebro, como expone el propio Knight, haciendo referencia a algunas investigaciones recientes. “Elizabeth Spelke, una experta en psicología cognitiva de Harvard, lleva toda su carrera analizando cómo funciona el sistema de aprendizaje más sofisticado del mundo: la mente de un bebé. Puede parecer que los niños que apenas balbucean no están en disposición de competir con los sistemas de IA (…) Pero los niños pueden hacer cosas que no están al alcance de estos últimos. Con solo unos meses de edad, comienzan a comprender los fundamentos del lenguaje, como la gramática. Y a entender cómo funciona el mundo físico, así como a adaptarse a situaciones desconocidas para ellos (…)”.
Ahora bien, los dispositivos que simulan la inteligencia humana arrojan mucha luz sobre la singularidad de esta última. “Consideren –propone Knight– otro de los ejemplos más impresionantes sobre IA que se han desarrollado hasta ahora: AlphaZero, un programa de juegos de mesa con habilidades superiores a las del hombre. Después de jugar miles de partidas contra sí mismo a alta velocidad y aprender de las posiciones ganadoras, AlphaZero fue capaz de realizar por sí mismo movimientos ya conocidos e incluso de idear otros nuevos. Parecía de ese modo eclipsar las habilidades cognitivas del hombre. Pero, a diferencia del ser humano, AlphaZero necesita jugar muchos millones más de partidas que una persona para aprender a jugar. Y lo más revelador es que no puede aplicar lo aprendido a un juego nuevo”.
Relacionarse con máquinas
A pesar de todo, “tendemos a asumir, quizá sin ser conscientes de ello, que los sistemas de IA tienen mentes como nosotros”, observa Tom Simonite, periodista especializado en IA en su artículo para Wired (“As Machines Get Smarter, How Will We Relate to Them?”).
“Es posible que los modelos de IA no necesiten imitar el cerebro en absoluto. Los aviones vuelan a pesar de tener poco parecido con los pájaros”
La incertidumbre que tenemos por delante es grande. Aunque “de modo general, la gente se adapta bien a las nuevas tecnologías (…), los sistemas de IA más complejos, como los coches robóticos, van a suponer un desafío para nosotros desde diversos puntos de vista. Milenios de evolución biológica y cultural han preparado nuestros cerebros y nuestras sociedades para interpretar los comportamientos, las particularidades de acción o las transgresiones de otras personas. Pero, en el caso de las máquinas de IA, como indica Iyad Rahwan, director del Instituto Max Planck para el Desarrollo Humano, con sede en Berlín, ‘vamos a tientas’”.
Por esta razón, Simonite cree que es importante pensar sobre el impacto que tendrá la IA en la vida humana. “Juzgar mal los sistemas de IA puede conducirnos a juzgar mal a las personas. Madeleine Clare Elijs, antropóloga de Data and Society, un centro de investigación, ha estudiado los accidentes relacionados con la automatización, y señala que la culpa moral por los fallos del sistema se atribuye injustamente y por regla general a personas que no tienen nada que ver con su diseño”.
Sea como fuere, la capacidad de aprendizaje de las máquinas es más limitada que la del hombre. Como señala Knight, haciéndose de nuevo eco de numerosos estudios, “los humanos nacen con una habilidad innata para aprender rápidamente ciertas cosas, como lo que significa una sonrisa o lo que sucede cuando se cae algo (…). También aprendemos mucho unos de otros. Un experimento reciente mostró que los niños de tres meses parecen sorprenderse cuando alguien sostiene una pelota de un modo no apropiado, lo que sugiere que perciben que las personas son capaces de causar cambios en el entorno”.
“Ni siquiera los sistemas de IA más sofisticados y potentes que existen pueden comprender conceptos parecidos. Un automóvil autónomo, por ejemplo, no puede intuir a partir del sentido común lo que ocurrirá si observa un camión del que se cae la carga”.


(1) The Idea of the Brain: The Past and Future of Neuroscience, Basic Books, 496 págs., 2020, 32,12 € (papel) / 5,93 € (digital).

No hay comentarios:

Nivel récord de infelicidad

 P or MARK GILMAN, The Epoch Times en español Según Gallup, el aislamiento es uno de los principales problemas que afectan la felicidad de l...