¿Es posible construir máquinas inteligentes? ¿Es el cerebro una máquina? Estas son dos preguntas que han obsesionado a grandes pensadores durante siglos. El desarrollo de la llamada inteligencia artificial ha permitido concretar más estas preguntas al restringir el concepto de máquina al de ordenador digital y, para muchos investigadores en este tema, las ha relacionado en el sentido de que el conocimiento del funcionamiento del cerebro puede ser útil para construir ordenadores cada vez más inteligentes.
Actualmente sabemos todavía muy poco acerca del cerebro, sin embargo, salvo raras excepciones -como por ejemplo la propuesta de Roger Penrose según la cual el comportamiento inteligente es debido a un fenómeno no algorítmico en el funcionamiento del cerebro explicable en términos de mecánica cuántica (Penrose, 1989)-, desde el inicio de la inteligencia artificial estamos inevitablemente siguiendo un camino que pasa por considerar el cerebro como un sistema computacional y, en consecuencia, hemos empezado a explorar el espacio de posibles metáforas acerca de su funcionamiento, que pueden dar lugar a modelos computacionales que permiten simular comportamiento inteligente. Entre el elevado número de posibles metáforas, en la investigación en inteligencia artificial se están considerando apenas media docena: simbólica, conexionista, moboticista, de la sociedad de la mente y autoorganizativa.
De estas metáforas, la primera y más desarrollada es la simbólica. Se basa en la idea de que el ser humano usa símbolos (conceptos) para categorizar el mundo que le rodea y razonar acerca de él. Por este motivo, la inteligencia artificial simbólica consiste en programar máquinas capaces de contener representaciones simbólicas de su entorno y de llevar a cabo manipulaciones cada vez más sofisticadas de dichas representaciones con la esperanza de que, con ello, se llegue a mimetizar el razonamiento y actuaciones propias del ser humano.
A este respecto cabe destacar los importantes resultado obtenidos por algunos sistemas expertos al conseguir emular el razonamiento de expertos humanos en campos muy concretos, como el diagnóstico médico, así como la exigencia de programas capaces de jugar al ajedrez a la altura de un maestro internacional o también programas capaces de traducir automáticamente textos especializados.
Sin embargo, a pesar de estas realizaciones, el problema del modelo simbólico para conseguir construir programas cuyo comportamiento inteligente no esté circunscrito a áreas muy restringidas radica en la enorme dificultad para representar en el ordenador la enorme cantidad de conocimientos, de distinta naturaleza (incluido el sentido común) que posee un ser humano y que ha adquirido a lo largo de su vida.
Por si fuera poco, además, no todo comportamiento humano requiere actuación consciente, deliberada o razonada, puesto que los seres humanos poseemos un gran número de habilidades altamente automatizadas. Se trata básicamente de habilidades que implican los sistemas sensoriales y motores y que se caracterizan, aparte de por su carácter no deliberado, porque no somos capaces de describir cómo las realizamos, como por ejemplo el reconocimiento instantáneo de una cara conocida entre la multitud, tarea prácticamente imposible de realizar de acuerdo con la metáfora simbólica.
La metáfora conexionista pretende simular el cerebro modelizando el funcionamiento de sus células mediante redes neuronales artificiales con capacidad para aprender a asociar estímulos a respuestas mediante la adaptación de los valores de pesos asignados a las conexiones entre las "neuronas".
Una característica de estas redes es que tienen una cierta capacidad para generalizar, es decir, que pueden producir respuestas apropiadas a estímulos no vistos durante la fase de aprendizaje siempre y cuando estos nuevos estímulos sean similares a los utilizados durante el aprendizaje. Esta metáfora se ha mostrado claramente más adaptada que la simbólica para dolizar capacidades sensoriales y motrices, y existen importantes realizaciones, por ejemplo en visión artificial, reconocimiento de caracteres manuscritos y el control de robots.
Sin embargo, también están claras sus limitaciones cuando se trata de simular procesos mentales de más alto nivel que requieren manejar conceptos. Actualmente [noviembre 1991] existe una interesante polémica entre "simbólicos" y "conexionistas" acerca de las capacidades de una y otra metáfora para desarrollar modelos computacionales que expliquen tanto los procesos mentales de alto nivel como los de bajo nivel que rigen las capacidades sensoriales y motrices.
A mi entender, parece más que probable que exista un continuo entre ambos niveles, lo cual hace prácticamente imposible determinar la forntera que delimita el rango de validez de ambas metáforas. Además, la capacidad de generalización de las redes neuronales está basada en la existencia de categorías predeterminadas, es decir, que presupone que el cerebro "ve" el mundo como un conjunto prefijado de categorías o clases con lo cual, en el fondo, la metáfora conexionista no es tan radicalmente distinta de la simbólica.
Una de las posiciones más radicales con respecto a la polémica entre simbólicos y conexionistas es la de Rod Brooks del Massachusetts Institute of Technology (MIT) y los llamados "moboticistas" que afirman que el 97% de la actividad humana no es conceptual sino guiada por mecanismos de control que compartimos, no sólo con otros mamíferos, sino también con insectos y otros animales inferiores.
Es precisamente por la simulación del comportamiento de insectos mediante pequeños robots móviles ("mobots") que los moboticistas han empezado a trabajar. Uno de estos "mobots" se pasea por despachos del MIT recogiendo las latas vacías de refresco que encuentra por el suelo; otro, del tamaño de una caja de cerillas, llamado "Squirt" pasa su tiempo escondiéndose debajo de objetos. Ninguno de estos "mobots" tiene idea de lo que está haciendo, ni ejecuta ningún plan preprogramado: lo que parece se un comportamiento deliberado no es más que una serie de reacciones motrices a estímulos sensitivos (por ejemplo "Squirt" simplemente huye de la luz que detectan sus sensores).
La principal hipótesis de los moboticistas es que la cooperación de un conjunto de acciones elementales puede dar lugar a un comportamiento tan inteligente como el que exhibiría un robot que razonara acerca de su comportamiento mediante un complejo programa que manipulara una representación simbólica de su entorno (veremos más adelante que esta idea está también presente en la metáfora de la sociedad de la mente).
Por lo tanto, de acuerdo con esta hipótesis, no es necesario disponer de una representaciópn simbólica, es decir, de conceptos, para exhibir inteligencia y esto se aplicaría a un ¡97% de la actividad humana! Dejando aparte que este porcentaje sea o no exagerado, lo que sí creo es que cada vez será más difícil avanzar en el camino de la construcción de máquinas inteligentes haciendo abstracción de las capacidades sensoriales y motrices ya que todas las "inteligencias" conocidas (desde insectos hasta el ser humano) son corpóreas, mientras que la inteligencia artificial ha sido hasta ahora principalmente extracorpórea (un programa en un ordenador que recibe datos a través de un terminal pero no interactúa con su entorno de manera directa).
La naturaleza y alcance de las capacidades sensoriales y motrices que posea un agente (natural o artificial) detemina, en gran medida, el tipo de habilidades que será capaz de desarrollar. Sin embargo, no es tampoco menos cierto que la capacidad para manejar conceptos permite desarrollar habilidades adicionales que permiten llegar a la inteligencia humana. Esto es especialmente indiscutible si nos detenemos a analizar en qué medida el lenguaje acelera el proceso evolutivo gracias a la posibilidad de comunicar. Esto sugiere la necesidad de integrar los distintos modelos, simbólicos y no simbólicos, pero el problema está en cómo hacerlo.
La metáfora autoorganizativa (Maturana y Varela, 1987) también pretende explicar comportamientos complejos a partir de constituyentes simples, denominados unidades autoorganizativas, que poseen una dinámica interna y están sujetas a interacciones continuas con el entorno. La idea básica es que pueden tener lugar cambios estructurales globales como resultado de la interacción con el entorno o de la propia dinámica interna de las unidades.
La naturaleza proporciona abundantes ejemplos de autoorganización. Uno sencillo lo tenemos en la formación de un flujo de hormigas entre un alimento y su nido. Las hormigas, inicialmente, se mueven de forma más o menos aleatoria hasta que alguna tropieza con algún alimento, lo cual hace que regrese al nido portando parte del alimento y dejando un rastro, producido por señales químicas segregadas por sus glándulas, que atrae a otras hormigas que a su vez hacen la misma operación que la primera con lo cual refuerzan dicho rastro y así queda establecido el flujo. Cuando el alimento se agota, el flujo se detiene y el rastro desaparece.
Es importante aclarar que únicamente una parte de la colonia logra permanecer con éxito en el flujo, el resto sigue efectuando movimientos aleatorios, con lo cual es más fácil reconstruir el flujo en caso de interrupción y además permite reconstruir fuentes adicionales o paralelas de alimentos.
Observamos que no existe ningún supervisor inteligente que controle todo el proceso, sino que la estructura emerge a partir de interacciones locales entre unidades subinteligentes. Observamos también que el entorno tiene un papel primordial ya que es la causa que provoca la aparición de estructura organizada (la presencia de comida provoca la aparición del flujo) hasta que las condiciones cambiantes del entorno la hacen desaparecer (al terminarse la comida desaparece el flujo).
Estas estructuras, que emergen como resultado de procesos de autoorganización, se denominan estructuras disipativas (Nicolis y Prigogine, 1977). Los defensores de la metáfora autoorganizativa afirman que la mayoría de las estructuras que intervienen en procesos cognitivos son disipativas, es decir, que se establecen mediante procesos autoorganizativos en continua interacción con el entorno.
Desde el punto de vista de la importancia del entorno, vemos similitudes con las ideas moboticistas y, en lo que se refiere a la presencia de comportamiento complejo emergente, vemos similitudes con la sociedad de la mente. Sin embargo esta última es determinista en el sentido de que se puede predecir el comportamiento global del sistema en función del conocimiento del estado de sus componentes, mientras que los sistemas disipativos son caóticos, ya que exhiben un comportamiento muy sensible a las condiciones iniciales.
La sociedad de la mente es una metáfora propuesta por Marvin Minsky, que modeliza el cerbro como una sociedad de agentes autónomos subinteligentes que, al cooperar de una manera supuestamente sencilla, exhiben un comportamiento global inteligente. Estos agentes están organizados jerárquicamente de manera que, en cada nivel, un agente es capaz de realizar acciones elementales y de activar y desactivar subagentes (agentes situados directamente debajo en la jerarquía). Cuanto más nos elevemos en dicha jerarquía más completo será el comportamiento, hasta llegar al máximo nivel en donde aparecería el comportamiento inteligente.
En este modelo, no está en absoluto claro cómo puede producirse el salto cualitativo que permite obtener comportamiento complejo a partir de la agregación de comportamientos simples. Según algunos autores, la explicación reside en que el comportamiento complejo es una propiedad emergente (es decir, no explicable en términos de mecanismos comprensibles) del sistema. En cualquier caso, no existen realizaciones concretas basadas en esta metáfora
A juzgar por esta dieversidad de interesantes e imaginativas metáforas, podemos afirmar que la inteligencia artificial, en contra de lo que algunos piensan, goza de excelente salud, aunque, dada la complejidad de sus objetivos, parece muy poco probable que cualquiera de los modelos computacionales derivados de estas metáforas puedan alcanzarlos. Es necesario seguir desarrollando y mejorando estos modelos, e incluso explorar nuevas metáforas, con el fin de integrar las ideas más prometedoras que surjan. Sólo así tendremos alguna posibilidad de simular algo más que comportamiento de simples insectos.