Materiales complementarios para cursos de Lingüística o Lógica, a partir de artículos de Drew McDermott (Universidad de Yale), Jesús Mosterín (Universidad de Barcelona) y John W. Dawson (Universidad Estatal de Pennsylvania), además de otros apuntes de Javier Bengoa (Universidad de Deusto).


Semántica y lógica


Glosario

Empirismo en lingüística

Los niños no aprenden el lenguaje gracias a las reglas, sino mediante analogías; no aprenden por la categorización "nombre", "verbo", sino por semejanza con otros términos. Algunos estudiosos, David Rumelhart (Universidad de California), James McClelland (Universidad de Carnegie Mellon) han desarrollado modelos informáticos que aprenden sin gramática y que cometen los mismos errores que los niños, y que están basados en modelos conexionistas. Los racionalistas, como Steven Pinker, lo rebaten, "tales programas no pueden reproducir el aprendizaje humano". Afirman que los niños comprenden realmente la gramática cuando aprenden las reglas de la lengua.

Empirismo lógico

En su versión más radical se proponía reducir todo el conocimiento humano a sus bases más firmes: la experiencia sensible inmediata y la lógica formal. Entre los seguidores más destacados se citan Bertrand Russell, Rudolf Carnap, Nelson Goodman. (Más)

Fisicalismo

Rudolf Carnap adoptó esta postura según la cual los componentes últimos del mundo son las entidades físicas elementales y a partir de ellas habría que reconstruirlo todo, incluso nuestras percepciones.

Monotonicidad

Semántica extensional e intensional

Semántica sistemática denotativa o tarskiana

La semántica tarskiana se llama así por motivos históricos (Tarski, 1936). Una denominación más descriptiva sería "semántica sistemáticamente denotativa", o más brevemente SD. El método se llama "denotativo" porque deriva el significado de una notación a partir de lo que denotan sus expresiones. Se llama "sistemática" porque aspira a que las reglas que asignan significado sean lo suficientemente precisas como para sustentar afirmaciones y, en ocasiones, demostraciones de propiedades interesantes de la notación.

La semántica sistemática es un método para resolver problemas de representación, no un catálogo de soluciones. Todavía no se sabe cómo representar el tiempo, el espacio, la creación y destrucción de individuos, conocimientos, individuos hechos de líquidos (Hayes, 1974) y los procedimientos.

(Más)

Sistema incremental

Sistema capaz de asimilar reglas nuevas y correctas sin destruir la corrección de la antiguas

Teorema de completitud

Investigación y Ciencia, agosto, 1999: 58-63. Traducción de Luis Bou.

Gödel y los límites de la lógica

John W. Dawson, Jr.

De sus teoremas de completitud derivan consecuencias decisivas para los fundamenteos de las matemáticas y de las ciencias de la computación.

Gödel demostró que los métodos matemáticos aceptados desde tiempos de Euclides eran inadecuados para descubrir todas las verdades relativas a los números naturales. Su descubrimiento minó los fundamentos sobre los que se había construido la matemática hasta el siglo XX, acicateó a los pensadores para buscar otras posibilidades y engendró un vivaz debate sobre la naturaleza de la verdad. Las innovadoras técnicas de Gödel, aplicables sin dificultad en algoritmos de cómputo, echaron también los cimientos de las ciencias de computación modernas.

El Círculo de Viena puso a Gödel en contacto con Rudolf Carnap, filósofo de la ciencia, y Karl Menger, matemático. Le ayudó a familiarizarse con la bibliografía de la lógica matemática y de la filosofía. En particular, el Círculo se hallaba enfrascado en los escritos de Ludwig Wittgenstein, cuya preocupación por el metalenguaje (en qué medida el lenguaje puede hablar acerca del lenguaje) pudo haber inducido a Gödel a sondear cuestiones similares en matemática. Algunos de los miembros del Círculo, entre ellos Carnap, Hanh y el físico Hans Thirring, estaban investigando los fenómenos parapsicológicos, asunto por el que también Gödel mostraba agudo interés. (Años más tarde, Gödel le haría notar a un amigo íntimo, el economista Oskar Morgenstern, que en el futuro sería tenido por fenómeno extraño que los científicos del siglo XX hubieran descubierto las partículas físicas elementales y ni siquiera se les hubiera ocurrido considerar la posibilidad de factores psíquicos elementales.)

Gödel, sin embargo, no compartía la visión positivista del Círculo de Viena, que desarrolló y generalizó las ideas de Mach. Era, por contra, un platónico, convencido de que, además del mundo de los objetos, existe un mundo de los conceptos al que los humanos tienen acceso por intuición. Para él, un enunciado debía tener un "valor de verdad" bien definido -ser verdadero o no serlo- tanto si había sido demostrado como si era susceptible de ser refutado o confirmado empíricamente. Desde su propio punto de vista, tal filosofía constituía una ayuda para su excepcional penetración en las matemáticas.

Después de 1928 sólo en raras ocasiones asistía a las reuniones del grupo; en cambio, participaba activamente en un coloquio matemático organizado por Menger. Las actas del coloquio se publicaban en un anuario, que Gödel ayudaba a redactar, y al que posteriormente habría de contribuir con más de una docena de artículos.

Durante este período, Gödel adquirió súbitamente estatura internacional en lógica matemática. Dos fueron, en particular, las publicaciones responsables de su prominencia. Una de ellas, su tesis doctoral, presentada en Viena en 1929, y publicada al año siguiente. La otra, su tratado "Sobre las proposiciones formalmente indecidibles de Principia Mathematica y sistemas afines", publicada en alemán en su Habilitationsschrift (la memoria de cualificación para el ejercicio de la docencia universitaria) en 1932.

En su tesis doctoral, "La completitud de los axiomas del cálculo funcional de primer orden", resolvía un problema pendiente, que David Hilbert y Wilhelm Ackermann habían planteado en un libro que escribieron conjuntamente en 1928, Grundzüge der theoretischen Logik ("Fundamentos de la Lógica Teórica"). La cuestión consitía en si las reglas al uso, enunciadas en el libro, para la manipulación de expresiones que contengan conectivas lógicas ("y", "o", y similares) y cuantificadores ("para todo" y "existe", aplicadas a variables que recorren números o conjuntos) permitirían, adjuntados a los axiomas de una teoría matemática, la deducción de todas y sólo todas las proposicioes que fueran verdaderas en cada estructura que cumpliera los axiomas. En lenguaje llano, ¿sería realmente posible demostrar todo cuanto fuera verdadero para todas las interpretaciones válidas de los símbolos?

Se esperaba que la respuesta fuese afirmativa, y Gödel confirmó que así era. Su disertación estableció que los principios de lógica desarrollados hasta aquel momento eran adecuados para el propósito al que estaban destinados, que consistía en demostrar todo cuanto fuera verdadero basándose en un sistema dado de axiomas. No demostraba, sin embargo, que todo enunciado verdadero referente a los números naturales pudiera demostrarse a partir de los axiomas aceptados de la teoría de los números.

Entre dichos axiomas, propuestos por el matemático italiano Giuseppe Peano en 1899, figura el principio de inducción. Este axioma afirma que cualquier propiedad que sea verdadera para el número cero, y que se cumpla para el número natural n+1 siempre que sea verdadera para n, tiene que ser verdadera para todos los números naturales. El axioma, al que algunos llaman "principio dominó" -porque si cae el primero, caerán derribados todos los demás- podría parecer evidente por sí mismo. Sin embargo, los matemáticos lo encontraron problemático, porque no se circunscribe a los números propiamente dichos, sino a propiedades de los números. Se consideró que tal enunciado de "segundo orden" era demasiado vago y poco definido para servir de fundamento a la teoría de los números naturales.

Por tal motivo, se refundió el axioma de inducción y se le dio la forma de un esquema infinito de axiomas similares concernientes a fórmulas específicas, en vez de referirse a propiedades generales de los números. Pero estos axiomas ya no caracterizan unívocamente los números naturales, como demostró el lógico noruego Thoralf Skolem algunos años antes del trabajo de Gödel: existen también otras estructuras que los satisfacen.

El teorema de completitud de Gödel enuncia que es posible demostrar todos aquellos enunciados que se siguen de los axiomas. Existe, sin embargo, una dificultad: si algún enunciado fuese verdadero para los números naturales, pero no lo fuese para otro sistema de entidades que también satisface los axiomas, entonces no podría ser demostrado. Ello no parece constituir un problema serio, porque los matemáticos confiaban en que no existieran entidades que se disfrazasen de números para diferir de ellos en aspectos esenciales. Por este motivo, el teorema de Gödel que vino a continuación provocó auténtica conmoción.

En su artículo de 1931, Gödel demostraba que ha de existir algún enunciado concerniente a los números naturales que es verdadero, pero no puede ser demostrado. (Es decir, que existen objetos que obedecen a los axiomas de la teoría de números y, no obstante, en otros aspectos dejan de comportarse como números.) Se podría eludir este "teorema de incompletitud" si todos los enunciados verdaderos fueran tomados como axiomas. Sin embargo, en ese caso, la decisión de si ciertos enunciados son verdaderos o no se torna problemática a priori. Gödel demostró que siempre que los axiomas puedan ser caracterizados por un sistema de reglas mecánicas, resulta indiferente cuáles sean los enunciados tomados como axiomas. Si son verdaderos para los números naturales, algunos otros enunciados verdaderos acerca de los números naturales seguirán siendo indemostrables.

En particular, si los axiomas no se contradicen entre sí, entonces, ese hecho mismo, codificado en enunciado numérico, será "formalmente indecidible" -esto es, ni demostrable ni refutable- a partir de dichos axiomas. Cualquier demostración de consistencia habrá de apelar a principios más fuertes que los propios axiomas.

Este último resultado apenó muchóisimo a Hilbert, quien había contemplado un programa para fijar los fundamentos de las matemáticas por medio de un proceso "autoconstructivo", mediante el cual la consistencia de teorías matemáticas complejas pudiera deducirse de la consistencia de más sencillas y evidentes. Gödel, por otra parte, no consideraba que sus teoremas de incompletitud demostrasen la inadecuación del método axiomático, sino que hacían ver que la deducción de teoremas no pueden mecanizarse. A su modo de ver, justificaban el papel de la intuición en la investigación matemática.

Los conceptos y los métodos introducidos por Gödel en su artículo sobre la incompletitud desempeñan un papel central en la teoría de recursión, que subyace a toda la informática moderna. Generalizaciones de sus ideas han permitido la deducción de diversos otros resultados ralativos a los límites de los procedimientos computacionales. Uno de ellos es la irresolubilidad del "problema de la detención", que consiste en decidir, para un ordenador arbitrario provisto de un programa y de unos datos arbitrarios, si llegará a detenerse o si quedará atrapado en un bucle infinito. Otro es la demostración de que ningún programa que no altere el sistema operativo de un ordenador será capaz de detectar todos los programas que sí lo hagan (virus).

Los logros en la teoría de conjuntos entrañaban la resolución de algunos de los aspectos más controvertidos de la teoría de colecciones de objetos. A finales del siglo XIX, el matemático alemán Georg Cantor había introducido la noción de tamaño ("cardinal") para conjuntos infinitos. Según tal concepto, un conjunto A tiene menor cardinal que un conjunto B si, cualquiera que seal la forma en que a cada elemento de A otro le sea asigado en B, quedan siempre elementos de B que no tienen correspondiente. Valiéndose de esta noción, Cantor demostró que el conjunto de los números naturales es menor que el conjunto de todos los números reales (el conjunto de todos los números decimales). Cantor conjeturó también que entre un conjunto y otro no existen conjuntos de tamaño intermedio, enunciado que llegó a ser conocido como la hipótesis del continuo.

En 1908, Ernst Zermelo, formuló una lista de axiomas para la teoría de conjuntos. Entre ellos se encontraba el teorema de elección, el cual (en una de sus versiones) afirma que dada una colección infinita de conjuntos disjuntos, cada uno de los cuales contiene al menos un elemento, existe un conjunto que contiene exactamente un elemento de cada uno de los conjuntos de la colección. Aunque su aspecto parece incuestionable -¿por qué no habríamos de ser capaces de extraer un elemento de cada conjunto?- el axioma de elección entraña una multitud de consecuencias contrarias a la intuición. De él se deduce, por ejemplo, la posibilidad de descomponer una esfera en un número finito de piezas, que separadas y vueltas a ensamblar aplicando tan sólo movimientos rígidos, forme una nueva esferea de volumen doble que la primera.

El axioma de elección desencadenó la polémica. Los matemáticos sospechaban -correctamente, como luego se vería- que ni el axioma de elección ni la hipótesis del continuo podían deducirse de los otros axiomas de la teoría de conjuntos. Y temían que las demostraciones fundadas en dichos principios pudieran generar contradicciones. Gödel, sin embargo, demostró que ambos principios eran coherentes con los restantes axiomas.

Los resultados de Gödel en teoría de conjuntos resolvieron una de las cuestiones que Hilbert había planteado en 1900 en una alocución célebre pronunciada en el Congreso Internacional de Matemáticas.

Gödel publicó excepcionalmente poco en vida -menos que ninguno de los otros grandes matemáticos, si se exceptúa a Bernhard Riemann-, pero la influencia de sus escritos ha sido enorme. Sus trabajos han afectado prácticamente a todas las ramas de lógica moderna. Durante el decenio pasado, otros artículos suyos han sido traducidos desde la obsoleta taquigrafía alemana que él utilizaba, y publicados póstumamente en el tercer volumen de sus Collected Works. Sus contenidos, entre los que figura su formalización del argumento ontológico de la existencia de Dios, han empezado también a llamar la atención.

John W. Dawson, Jr. es doctor en lógica y profesor de matemáticas en la Universidad estatal de Pennsylvania en York. Tiene a su cargo la coedición de las obras de Kurt Gödel.


EMPIRISMO LÓGICO

Artículo de Jesús Mosterín en El País (30/12/1998), Maneras de construir mundos.

Nelson Goodman, el patriarca del mítico Departamento de Filosofía de la Univesidad de Harvard, murió el 24 de noviembre de 1998, a los 92 años de edad. Sus múltiples contribuciones a la filosofía de la ciencia abarcan la teoría de la inducción, la confirmación de hipótesis, los condicionales contrafácticos y su labor como practicante y teórico de la construcción de mundos. Vale la pena recordar ahora esta última faceta.

En la época heroica del empirismo lógico se anunció la desmesurada pretensión de reducir todo nuestro conocimiento a sus bases más firmes: la experiencia sensible inmediata y la lógica formal. A partir de los mondos datos sensibles y con la sola palanca de la lógica pura habría que reconstruir el edificio entero de la realidad. Como Bertrand Russell había postulado, "siempre que sea posible, hay que sustituir las entidades inferidas por construcciones lógicas". Él mismo, en Our Knowledge of the Exterternal World (1914), propuso reducir las entidades de la física a lo dado en los sentidos mediante definiciones sucesivas.

Fue Rudolf Carnap quien, en Der logische Aufbau der Welt (La construcción lógica del mundo, 1928) se puso manos a la obra de reconstruir todos los objetos de la experiencia y de la ciencia como construcciones lógicas (clases de clases de clases) de vivencias elementales, usando como punto de partida la mera relación primitiva de semejanza recordada entre ellas. Las construcciones matemáticas superpuestas de Carnap ofendían el austero sentido nominalista de Goodman, que prefirió renunciar a las pompas conjuntistas y profesar la escueta disciplina de un cálculo mereológico de individuos como única herramienta formal. Como individuos tomó los qualia, características sensibles atemporales (como colores y sentidos) en cuanto percibidas por el observador.

Los intentos de reconstrucción fenomenista del mundo de Russell, Carnap y Goodman tenían algo de quijotesco. Nadie logró completarlos y definir, por ejemplo, el electrón como una cierta clase de clases de sensaciones. Carnap pronto abandonó el empeño y adoptó el fisicalismo: los componentes últimos del mundo son las entidades físicas elementales y a partir de ellas habría que reconstruirlo todo, incluso nuestras percepciones. Goodman se distanció del programa por la vía de un pluralismo crecientemente refinado e irónico. En 1978 su libro Ways of Worldmaking (Maneras de hacer mundos) causó sensación. Nadie, en el siglo XX, ha expresado las tesis relativistas con tanta finura, alcance y encanto. El mundo fenoménico de nuestras vivencias y percepciones es un mundo distinto del mundo fisicalista de los átomos y los campos, que a su vez no se parece al mundo de la pintura abstracta ni al de la música barroca.

La antaño dramática cuestión de si el sol gira en torno a la Tierra o a la inversa es contemplada por nosotros con displicencia como un mero asunto de elección de coordenadas. Ambos mundos son versiones del mismo mundo, intertraductibles entre sí mediante la adecuada transformación. Pero hay otros mundos que no son traducibles, hay mundos distintos e irreducibles.

"Lo perceptual no es más una visión distorsionada de los hechos físicos que lo físico es una versión muy artificial de los hechos perceptuales". Y no digamos lo pictórico, a lo que Goodman prestó mucha atención. (Casado con una pintora, ganó más como marchante de arte que como profesor y su despacho en Emerson Hall era un auténtico museo). De todos modos, Goodman siempre rechazó el "todo vale". En todos los mundos había, según él, criterios de corrección. La noción de corrección le parecía más general y manejable que la de verdad, sin por ello renunciar a ésta en la ciencia ni el lenguaje. Pero se oponía a lo que consideraba un realismo ingenuo e insostenible, la tesis de que el mundo ya está estructurado de por sí con independencia de nuestras construcciones conceptuales y que nos limitamos a encontrar los hechos. "Desde luego, debemos distinguir la falsedad y la ficción de la verdad y el hecho; pero no podemos -estoy seguro- hacerlo sobre la base de que la ficción es fabricada y el hecho encontrado".


LA SEMANTICA DE TARSKI

O NINGUNA NOTACIÓN SIN DENOTACIÓN

Drew McDermott
Universidad de Yale

La semántica tarskiana se llama así por motivos históricos (Tarski, 1936). Una denominación más descriptiva sería "semántica sistemáticamente denotativa", o más brevemente SD. El método se llama "denotativo" porque deriva el significado de una notación a partir de lo que denotan sus expresiones. Se llama "sistemática" porque aspira a que las reglas que asignan significado sean lo suficientemente precisas como para sustentar afirmaciones y, en ocasiones, demostraciones de propiedades interesantes de la notación.

En un cálculo de predicados típico, a los símbolos primitivos se les asignan denotaciones que constan de objetos, funciones o predicados. Después el significado de expresiones más complejas es definido mediante reglas que derivan sus significados del significado de sus componentes. Para las oraciones en un lenguaje así, esto equivale a especificar las condiciones que hacen que una oración sea verdad. Esto es, el significado de una oración es una especificación de lo que le hará denotar V y de lo que le hará denotar NULO. Esta especificación puede entenderse como una generalización de una definición de un predicado ordinario de LISP.

Por ejemplo, podemos asignar al símbolo predicado FTRANS un predicado que es verdad sólo cuando su primer argumento ha hecho que el segundo argumento sea físicamente transferido del tercer argumento al cuarto argumento. Entonces la denotación de (ACTOR x <=> FTRANS OBJ y DE u A v) debería ser V sólo si la denotación de x ha transferido la denotación de y de la denotación de u a la denotación de v. (Esta es una manera muy prolija de escribir una regla semántica típica, que proyecta la sintaxis de una expresión sistemáticamente sobre la denotación. No nos ocupamos aquí de la sintaxis, pero podemos comprobar que el uso de la SD no nos obliga a ninguna sintaxis en particular, mientras sea precisa.) Está claro que el primer argumento de la denotación de FTRANS debería ser un objeto animado; el segundo, un objeto físico; el tercero y cuarto, lugares. Si quisieramos ser muy precisos, se deben proscribir los tipos incongruentes en estas posiciones, o especificar cuál es la denotación de (ACTOR x <=> FTRANS OBJ y DE u A v) cuando x, y, u o v son incongruentes.

De momento todo esto puede parecer un tanto flojo. ¿Qué se ha ganado con la repetición (aparente) en el dominio semántico de lo que ya es bastante obvio en primer lugar? Para empezar, hemos logrado un cierto compromiso. Si nos obligamos a que por ejemplo el requisito de que una expresión FTRANS signifique que alguna vez ha sucedido una transferencia, estamos en posicion de juzgar sobre la verdad de ciertas inferencias y de los sistemas que las hacen posibles.

El poder real de este método se hace patente cuando incluímos la notación en un sistema de inferencia determinado. Por ejemplo, si hace falta una regla de inferencia como "si (ACTOR x <=> FTRANS OBJ y DE u A v), entonces se infiere (ACTOR y ESTA (LOC VAL v))." (Donde el constructo ESTA-LOC-VAL significa que x ha estado alguna vez en v). Dada una interpretación SD de esta notación, se puede preguntar ¿Está bien fundada esta regla? Esto es, ¿es cierto que si x transfiere y a v, y estará en algún momento en v? Claramente, la respuesta es sí. Por otro lado, considérese "si (ACTOR y ESTA (LOC VAL vl)) y (NOT (EQUAL vl v)) y (NOT (ACTOR x <=> FTRANS OBJ y A v)), entonces (NOT (ACTOR y ESTA (LOC VAL v)))." Si nuestra intención es capturar la idea de que nada se mueve sin un FTRANS, entonces hemos fallado, ya que, por la interpretación que estamos construyendo, no hay relación temporal entre el propuesto FTRANS y el aserto (NOT (ACTOR y ESTA (LOC VAL v))). La regla para NOT proyectará (NOT p) en V sólo cuando p se proyecta en NULO, pero esto sucederá sólo cuando la denotación de y nunca ha estado y nunca estará en el lugar denotado por v. Por lo tanto, la regla dice "Si y ha estado en algún lugar cercano a v, ??y algún agente x nunca ha transferido y a v, entonces y nunca ha estado en v". Esta regla es sencillamente falsa. Por supuesto, esta comprobación no implica que no existe manera de expresar lo que deseamos en este lenguaje, pero implica que la manera obvia no funcionará. (Además aporta un sólido argumento intuitivo de que esta lengua requiere extensiones para ser capaz de denotar tiempos y eventos particulares y para cuantificarlos.)

Teorema de completitud

En algunos casos, el estudio pormenorizado de la semántica nos permite realizar generalizaciones sobre cualquier cosa declarable o derivable en un sistema de inferencias. En particular, queremos saber cuándo un sistema nos permite inferir muy poco o mucho. El Santo Grial de este estudio es un teorema tal que, dada una asignación intuitiva convincente de significados a las expresiones del sistema, sus reglas de inferencia nos permitan inferir exactamente las oraciones verdaderas (aquellas con valores V), ni más ni menos. Este resultado se llama teorema de completitud. A menudo tenemos que conformarnos con menos y sólo demostrar que las inferencias permitidas por el sistema son verdaderas. Esta es una demostración de fundación sólida y de consistencia.

Incluso cuando un sistema es demasiado complejo o se desarrolla en exceso para que estas demostraciones estén disponibles, la aplicación de un SD de manera informal pude todavía ser válida. En este caso, el método sugiere una fuerte autodisciciplina que debe ponerse en práctica cada vez que se añade una regla o un símbolo de predicado al sistema. Esta disciplina equivale a preguntarse "¿Denota este nuevo constructo algo que podamos precisar? ¿Es verdadera la regla propuesta? Si no podemos responder a estas preguntas, no existe forma de prever todas las interacciones de los nuevos constructos con los antiguos. Incluso si persistimos en añadir ciegamente una nueva regla, esta actitud nos previene para que estemos en guardia.

Un consejo así puede parecer vacuo, pero tiene sus aplicaciones en sistemas de IA reales. Por ejemplo, pone un gran peso en los diseñadores de sistemas de producción. Estos son sistemas de reglas del tipo "condición -> acción", donde la condición se compara con alguna estructura de memoria y prescribe una acción que cambia esa estructura. Si las condiciones pueden ser dotadas de una semántica precisa, y si las acciones son siempre de la forma "infiere p" se podrá dotar de una semántica denotacional a las reglas y no quedarán cabos sueltos. (El sistema MYCIN, Shortliffe 1976, es más o menos así.) Desafortunadamente, estas restricciones no son tenidas en cuenta por muchos de estos sistemas. Esto quiere decir que no existe forma de determinar si una regla concreta tiene un fundamento sólido o no a no ser que se estudie todo el sistema del que forma parte (y entonces no queda claro qué tipo de aserto desearíamos hacer sobre él).

Consideremos, por ejemplo, el sistema AMORD de Kleer, Doyle, Steele y Sussman (1977). Este es en conjunto un sistema de producción muy disciplinado en el que las reglas pueden ser dotadas de una semántica SD. Sus reglas se usan de manera uniforme como reglas de "deducción hacia delante": se usa a->b para inferir b después de haber inferido a. (Adviértase que por el momento no se ha mencionado el procedimiento de inferencia; en la práctica se debe distinguir entre todas las inferencias que son permitidas y el subconjunto realizado por un procedimiento concreto.) ¿Qué sucedería si se intenta usar la misma regla abstracta para intentar probar como un subobjetivo de intentar probar b? Se puede escribir como "b<-a" y definir la flecha invertida como:

(q <- p) -> ((muestra q) -> (muestra p))

Esto es, "De q <- p se infiere que si se infiere que q es un objetivo, se infiere que p es un objetivo" Ambos símbolos <- y MUESTRA son definidos por el usuario, no por el sistema. MUESTRA puede ser usado para definir otros constructos orientados al objetivo. Por ejemplo, cuando aparece el objetivo de aportar una conjunción, se trata mediante una regla como la siguiente:

(muestra (p & q))

-> { (muestra p)

{p -> { (muestra q)

(q -> (p & q)) })}

que aparentemente significa "Si se desea mostrar p & q, entonces se desea mostrar p y si p está concluido, entonces desea mostrar q; si p y q están concluidos, entonces se puede inferir p & q." Decimos "aparentemente" porque no le hemos dado un significado a MUESTRA y por lo tanto no podemos juzgar el fundamento sólido de la regla de conjunción. Se puede pensar que (MUESTRA p) significa "El sistema en este momento está interesado en la verdad de p" pero ¿qué significa (MUESTRA (SOBRE X BLOQUE1)) cuando X es una variable? ¿Debe X interpretarse como universalmente cuantificada? Es decir, para toda X, ¿está el sistema interesado en la verdad de (SOBRE X BLOQUE1)? Esto parece dudoso. Por ejemplo, si AMORD fuera usado como base de datos en una compañía de seguros, podríamos tener una regla:

(muestra (salud ricardo-pérez x))

-> (realiza (cancela-póliza ricardo-pérez))

aparentemente significando "Si alguien está interesado en la salud de Ricardo Pérez, cancela su póliza." (Perverso pero no inconcebible para una empresa de seguros.) Pero la aserción (MUESTRA (SALUD Z MALA)), con el significado de "Estoy interesado en quién tiene mala salud" hará que la regla sea activada y que cause que la póliza de Ricardo Pérez sea cancelada. Esto no solamente es inmoral, sino que además no tiene fundamento sólido.

Todo ello no quiere decir que AMORD no sea útil. Sólo indica que no es analizable en un momento clave (!!!). La mayor parte del tiempo la semántica del sistema se comporta bien; de hecho, utiliza una versión de reglas de resolución de inferencias bien comprendida. Pero hay ocasiones en las que lo único que se interpone entre el usuario del sistema y el absurdo es la cautela por parte del ususario a no llevar demasiado lejos el símbolo MUESTRA. (Sin tener certeza de los límites válidos.)

Existen muchos otros ejemplos. Cualquier sistema que contenga programas de LISP "indisciplinados" descansa en reglas cuyo fundamento sólido (y significado) son dudosos. Un sistema como KRL (Bobrow & Winograd, 1977), que ofrece un espléndido cuerpo de reglas con notación pero sin denotación, es un castillo en el aire. ¿Cómo se puede saber si dos expresiones KRL entran en conflicto, por ejemplo? Una crítica similar se pude hacer con un sistema emparentado con KRL, las redes semánticas (cf. Woods, 1975).

Es fácil darse cuenta de que la gente de IA tiende a resistirse a estas ideas y suelen preguntarse por qué debe preocupar el objetivo inmediato de que un sistema de inferencias tenga fundamento sólido, ya que a largo plazo el único criterio útil es saber si el sistema funciona o no. Además, en la medida en que los procedimientos de inferencia, por motivos prácticos, están predestinados a ser incompletos respecto a los sitemas de inferencia que los soportan, ¿para qué insistir en que el sistema de soporte sea semánticamente completo?

La respuesta es: No sólo es importante que el sistema sea correcto; es de vital importancia que sea bien comprendido. Teniendo en cuenta que un sistema práctico será incompleto, debemos ser capaces de saber en qué medida lo es y por qué.

(Por este motivo, a largo plazo, el estudio de la complejidad de los procedimientos de inferencia será tan importante como el estudio de la semántica de los sistemas de inferencia.) Después de todo, un programa práctico nunca estará "terminado"; estará bien saber que cualquier fragmento mantendrá su integridad aunque se añadan nuevas reglas o se hagan nuevas aplicaciones de reglas antiguas. Nos gustaría que nuestros programas sean "incrementales", es decir, que sean capaces de asimilar reglas nuevas y correctas dictadas por expertos sin destruir la corrección de la antiguas. (Al menos, como en el sistema MYCIN, para las reglas antiguas nos gustaría depender en criterios suficientemente explícitos para que el sistema las mantenga (Davis, 1976).)

Puede parecer extraño para una persona ajena enterarse de que los informáticos, a pesar de que estudian objetos puramente formales como son los programas y las estructuras de datos, tengan una clara tendencia "anti-formalista". Esto comenzó inicialmente con el doloroso descubrimiento de que incluso los objetos más formales necesitan ser depurados/debugged.

En IA, sabemos desde nuestros primeros experimentos que solo lo muy trivial puede ser formalizado. Programas de IA que resultan llamativos son demasiado complejos. Sin embargo, no debemos dejar que esto nos cree reparos. Puede ser cierto que las teorías formales deban siempre conformarse con los casos ideales. Esto ha sucedido en física, sin causar ningún perjuicio. (Es difícil comprender cómo hubiera progresado la física sin el gas ideal). También es cierto que una investigación formal dependerá siempre del flujo de buenas ideas y de requisitos urgentes de la exploración empírica de programas prácticos. Los programas prácticos de grandes dimensiones, sin embargo, están predestinados a colapsarse bajo su propio peso si no están bien fundamentados. La estructura de programas como AMORD y MYCIN son reveladoras: consisten de una base semántica consistente y de remiendos en las partes que no se entienden bien. Funcionan, pero lo que es más importante, la experiencia con ellos nos enseña cómo rellenar los huecos, de forma que la siguiente generación de progrmas pueda representar un avance.

Tratemos ahora algunas otras objeciones específicas a la semántica Tarskiana. Primero, esta la objeción de que "La gente no lleva la semántica Tarskiana en sus cabezas, por lo tanto la semántica Tarskiana no es de interés para la los investigadores de IA interesados en la manera en que la gente hace las cosas." Esta premisa es cierta, pero la conclusión es falsa. Incluso el denotacionalista más salvaje nunca ha revindicado que la semántica deba situarse "en el cerebro" de un robot. La semántica es para que la usemos como herramienta para analizar la representación del conocimiento. Por supuesto, si nuestro objetivo es reproducir el sitema de representación humano, no sólo tenemos que ser sistemáticos, también debemos ser precisos.

Se ha hecho la objeción de que la semántica denotacional no puede ser la semántica del lenguaje natural en toda su magnificencia (!!!). Esto puede o no ser verdad (si "denotacional" se interpreta en el sentido amplio), pero no tiene nada que ver con su uso como semántica de estructuras de conocimiento internas.

Monotonicidad

Un punto débil de la semántica denotacional sistemática tal como ha sido desarrollada hasta ahora es que ha sido fundamentalmente una herramienta de filósofos y lógicos, cuyos objetivos eran muy distintos de los de la IA. Por ejemplo, es característico de todos los sistemas lógicos que al añadir nuevos axiomas a un sistema, las antiguas inferencias continúan siendo válidas. Esta propiedad se llama "monotonicidad" (Minsky, 1974).

No hay forma de decir, por ejemplo: "Si tienes las llaves de un coche y gasolina o dinero, y no hay otra información que lo prevenga, puedes usar tu coche para ir a distancias de cientos de miles de kilómetros." (Pero la inferencia requerida puede estar bloqueada por un nuevo axioma añadido como "Alguien ha robado los neumáticos.")

En todo caso, ésta no es una objeción a la semántica denotacional como tal, pero eleva el problema técnico dentro de la semántica denotacional para representar "...no queda descartado." Se ha hecho un progreso considerable en el lado práctico del desarrollo de programas que pueden manipular construcciones como esta, pero la teoría subyacente necesita más estudio.

Semántica extensional e intensional

Hay otro área en el que la mayoría (pero de ninguna manera todos) los resultados de los lógicos han sido inadecuados. Ya se ha mencionado previamente que la denotación de una proposición era siempre V o NULA. A esto se le ha llamado semántica extensional, y es estándar para las aplicaciones matemáticas. Si nuestro lenguaje incluye un predicado como "CREE", esto es inadecuado. Considérese una proposición como (CREE MARIA (GORDO JUAN)). Claramente, el valor de verdad de esta proposición no depende para nada del valor de (GORDO JUAN). Por ello, si la denotación de la fórmula es depender sólo de la denotación de sus componentes, las fórmulas tendrán que denotar entidades más abstractas, y tener valores de verdad sólo indirectamente. Este es el objeto de la semántica intensional (Bressan, 1972).

La semántica sistemática es un método para resolver problemas de representación, no un catálogo de soluciones. Todavía no se sabe cómo representar el tiempo, el espacio, la creación y destrucción de individuos, conocimientos, individuos hechos de líquidos (Hayes, 1974) y los procedimientos. Avanzaremos más rápidamente en estos problemas si mantenemos la semántica en nuestras cabezas.


Semántica y Ciencias Cognitivas

Apuntes de un curso de doctorado de Javier Bengoa (Universidad de Deusto)

La semántica trata de establecer el significado de los signos lingüísticos. En las ciencias cognitivas se usa la metáfora de mente=programa frente a cuerpo=máquina. Existen intentos de reducir la semántica a la sintaxis. Hitos importantes son las obras de Kripke (1967), Fodor y Katz (1963), Fodor El lenguaje del pensamiento (1975), Fodor La psicosemántica (1987), y Hilary Putnam El significado de "significado". Este último rompe con la tradición fregiana y rebate a Kripke (1962).

Frege aporta la axiomatización de la lógica. Es a la lógica moderna lo que Aristóteles a la clásica. Fundamenta las matemáticas, la necesidad de las matemáticas: ¿Por qué 2+2=4?

Frente a empiricistas y naturalistas como Stuart Mill, que afirmarían sin más que "estamos hechos para pensar así", Frege plantea la base de la necesidad matemática y lógica, y se puede decir que inventó la escritura conceptual.

Al tratar el problema del significado, Frege distingue la referencia o denotación del sentido.

La referencia o denotación: "Un símbolo está por un objeto".

El sentido o "la manera en que el objeto se presenta".

Así surge el problema de si "estrella matutina" es igual a "estrella vespertina". Si esta ecuación se interpreta en el estricto plano referencial, resulta una tautología, una trivialidad.

Aplicado al lenguaje, la referencia de una oración será su valor de verdad o falsedad y el sentido su contenido conceptual. Pero (según Bengoa) "es un artificio decir que la referencia de una oración es un valor de verdad o falsedad".

Wittgestain, en el Tratactus (1917) mantiene que la lógica es la esencia del lenguaje, su constituyente principal. En cuanto se concibe un simbolismo, surge la lógica. En cuanto al significado de los términos dirá que en última instancia es la referencia.

Russell entenderá por referencia un expresión definida, equivalente a un nombre (de persona, por ejemplo).

Wittgestain dirá que de lo único de que se puede hablar es de la lógica y de la ciencia. "El lenguaje es como un espejo, no puede reflejarse a sí mismo, no vale para hablar de sí mismo." La gramática profunda es la lógica y con un aforismo paralelo al "en el principio era el verbo", Wittgestain dirá "en el principio era la lógica".

Después de escribir el Tratactus , Wittgestain provocó el desprecio de gente como Karl Popper.