You are on page 1of 28

Una época de convulsiones.

Los
teoremas de Gödel

A lo largo de los capítulos anteriores se han descrito los rasgos más


destacados del modo en que se ha venido a interpretar de manera formal y rigurosa el
concepto de tarea efectiva o algoritmo. Por así decir, ahora sabemos de qué hablamos
cuando declaramos que tal o cual tarea es ejecutable de manera efectiva o que tal otra
no lo es. Pero por más natural que resulte el modelo expuesto, nunca dejarán de
sorprenderme dos de sus características más destacables: su carácter universal, y su
íntima relación con el marco ofrecido por el cálculo de funciones numéricas. Para
entender estos componentes del concepto formal de computabilidad se hace
imprescindible acudir a la historia real de unos acontecimientos aún próximos en el
tiempo, pero muy desfigurados ya por el avance de esta disciplina.

Este capítulo estará dedicado a describir, de manera muy general, los


episodios que llevan desde una etapa presidida por el optimismo acerca de la bondad
de los formalismos, a otra profundamente afectada por un resultado de innegable
impacto: los teoremas de incompletitud de Gödel. Es imposible entender la forma y los
problemas originales de la moderna Teoría de la Computación sin tener alguna idea
sobre este convulso periodo que va desde mediados del siglo xix hasta 1931
aproximadamente. El siguiente capítulo retoma la exposición de los hechos en ese
punto para describir uno de los periodos más intensos desde el punto de vista
intelectual de los que podamos conservar memoria escrita. Se trata del periodo que
media desde la recepción de los teoremas de Gödel hasta la publicación del artículo
seminal de Turing. Acabaremos, pues, dando razón de lo que ya hemos expuesto bajo
el rótulo de modelo estándar. El último de los capítulos de esta serie es más general.
Estará dedicado a evaluar los derechos que el análisis formal de la computablidad
posee para presentarse a sí mismo como la elucidación formal de un concepto
Lógica y Computabilidad

intuitivo. Nos enfrentaremos a la reactivación de un problema tradicional de la filosofía,


el problema del mecanicismo, a partir de una nueva batería de datos. Todo ello tendrá
lugar como consecuencia de la exposición y discusión de la denominada Tesis de
Church, o de Turing-Church.

Cada vez es más frecuente buscar antecedentes del concepto de máquina de


Turing en periodos relativamente alejados en el tiempo. Se trata de demostrar que
este concepto entronca con una tradición poblada de ingenios mecánicos que
conducen de forma más o menos directa hasta esa especie de artefactos de última
generación ideados por Turing. Esta interpretación se apoya, voluntaria o
involuntariamente, en el símil mecánico que el nombre máquina de Turing sugiere
inmediatamente. Puesto que una máquina de Turing es una máquina, sus
antecedentes habrán de buscarse entre otras máquinas. Como ya hemos visto, esta
tesis es insostenible al ser falsa la premisa mayor del argumento: una máquina de
Turing es una mera abstracción matemática algunos de cuyos rasgos sólo operan de
formal ideal. Es incorrecto, por tanto, situar entre sus precursores entre ingenios como
los ábacos, o las máquinas calculadoras de Leibniz o Pascal. E igualmente lo sería la
mención de otras aportaciones más cercanas como la Analytical Engine de Babbage,
o el demostrador lógico de Jevons. De todas estas, la más parecida con mucho es la
más primitiva: el ábaco. En este sí podríamos ver una realización concreta y por tanto
parcial, de una máquina de Turing. Lo que une a todos los ingenios posteriores con el
concepto formal ideado por Turing es una cierta posición filosófica muy básica: el
mecanicismo. Pero de esto ya hablaremos más adelante.

Los antecedentes inmediatos de los conceptos y problemas que llevan al


nacimiento de la Teoría de la Computación hay que buscarlos en un periodo convulso
que tiene sus inicios en la segunda mitad del siglo xix. Durante esa etapa se inicia una
expansión del conocimiento matemático y formal que iguala o supera otros periodos
también intensos: la Ilustración y o el mundo clásico.

Lo que nos interesa es el profundo sesgo fundamentista que adoptan muchas


de las preocupaciones de los autores más caracterizados en esta época. La impresión

50
Una época de convulsiones

que produce el conocimiento matemático por entonces apunta a una débil


fundamentación de sus teorías. Se cuenta con un considerable número de técnicas
que se sabe utilizar con provecho, pero no se tiene la impresión de unidad que
producen las teorías correctamente fundamentadas. Preguntas relativas a los recursos
necesarios para obtener tal o cual resultado, o la dependencia entre subramas
distintas no se pueden plantear correctamente.

Este sentimiento forma parte de un proceso que los historiadores han venido a
bautizar como la Crisis de fundamentos. A veces se ha interpretado que el
renacimiento de la Lógica a partir del impulso de Boole y Frege responde a un intento
de paliar esa crisis, lo que seguramente es cierto, pero de ahí no se sigue que
realmente lo consiguiera. Más bien dio lugar a un proceso que termina abruptamente
con la disolución definitiva de ciertas esperanzas.

El estudio de los lenguajes en que se expresan las teorías matemáticas


constituye el núcleo de la investigación de la que resulta la constitución de la Lógica
contemporánea. Se piensa que un lenguaje que conste de un número limitado de
categorías lógico-gramaticales cuyas reglas de formación se conocen y que cuente
con un aparato deductivo perfectamente definido no puede deparar sorpresas. El
conocimiento matemático que pueda expresarse por medio de este lenguaje gozará,
por tanto, de una correcta fundamentación. Puede ser útil tener presente qué lenguaje
es este del que hablamos.

[1] Lenguaje de la Lógica de Primer Orden, Lc (con identidad y símbolos


funcionales).

i. Vocabulario básico:

Vb=<{∀,∃},{¬,&,v,→}, {=}, {x,y,z,...x1,x2,...xi,...},


{a,b,c,...a1,...ai,...},{R11,...R1i...,R21,...R2i..., Ri1,...Rii...,},
f11,...f1i...,f21,...f2i..., fi1,...fii...,}>.

51
Lógica y Computabilidad

ii. Reglas de formación.

Términos individuales:

c0) Si t es una variable individual, entonces t es un término


individual.

c1) Si t es una constante individual, entonces t es un término


individual.

c2) Si t1,...tn son términos individuales y fin es una símbolo funcional


n-ario, entonces fin t1,...tn es un término individual.

Fórmulas:

c0) Si Rn es una letra relacional n-aria y t1,..ti,...tn son términos,


entonces Rnt1,..ti,...tn es una fórmula bien formada.
c1) Si A es una fbfC, entonces ¬A es una fbfC.
c2) Si A y B son fbfsC, entonces A•B es una fbfC, donde •∈{¬,&,v,→}.
c3) Si A es una fbfC, entonces ΨαA es una fbfC, teniendo en cuenta
que Ψ∈{∀,∃} y que α es una variable individual en
{x,y,z,...x1,x2,...xi,...}.
c4) Si t y t’ son términos, t=t’ es una fórmula bien formada.

Básicamente este es el formalismo con el que Frege da inicio a la constitución


de la Lógica contemporánea. Como es obvio, ni la notación, ni los nombres se han
preservado, pero sus categorías son las mismas. El lenguaje LC se define entonces
como el menor conjunto de fórmulas que se obtiene al seguir las reglas descritas en
[1].
El aparato deductivo, el cálculo con que opera este lenguaje, puede
sustanciarse ahora de muchas maneras distintas. El que se ofrece a continuación

52
Una época de convulsiones

responde al formato de los denominados sistemas axiomáticos. Este sistema


caracteriza la clase de las fórmulas demostrables del lenguaje de la Lógica de Primer
Orden, LPO, en símbolos.

[2] Sistema axiomático para LC: AxC.

Ax.1 | A→(B→A)
Ax.2 | (A→B)→((A→(B→C))→(A→C))
Ax.3 |A→(B→A&B)
Ax.4 |A&B→A
Ax.5 |A&B→B
Ax.6 |A→AvB
Ax.7 |B→AvB
Ax.8 |(A→C)→((B→C)→(AvB→C))
Ax.9 |(A→B)→((A→¬B)→¬A)
Ax. 10 |¬¬A→A.
Ax. 11 | A(t)→∃xA(x), donde t está libre en A respecto a x
Ax. 12 | ∀xA(x)→A(t), donde t está libre en A respecto a x

R1) |A |A→B

|B

R2) | B→A(x)
|B→∀xA(x) donde B no contiene ocurrencias libres de x

R3) | A(x)→B
| ∃xA(x)→B donde B no contiene ocurrencias libres de x.

53
Lógica y Computabilidad

Axiomas para la identidad:

Ax. 1 ∀x (x=x)
Ax.2 ∀x∀y (x=y → y=x)

Ax.3 ∀x∀y∀z (x=y & y=z →x=z)

[3] Concepto formal de prueba (en Axc)

i. A es derivable a partir de un conjunto X de premisas

- decimos que A es derivable a partir de un conjunto X de


premisas syss existe una secuencia finita de fórmulas
<x1,...xn,y1,...ym> tal que cada una de ellas es:

a) una fórmula en X, o
b) un axioma de Axc, o
c) ha sido obtenida mediante la aplicación de alguna de
las reglas de inferencia R1-R3 sobre fórmulas
precedentes,

y, finalmente, sucede que ym=A

ii. A es demostrable en Axc

- una fórmula A es demostrable en Axc cuando es derivable a


partir del conjunto vacío de premisas.

Los detalles pueden consultarse en cualquier manual introductorio de Lógica.

54
Una época de convulsiones

Como puede verse, no hay ningún símbolo en el vocabulario cuyo uso no esté
perfectamente definido, ni ningún elemento cuya conducta no esté perfectamente
controlada por las reglas de procedimiento establecidas en Axc. Por otra parte, la
noción de prueba queda absolutamente acotada por un rango de recursos
establecidos en un principio. Estamos ante la expresión más perfecta y depurada del
ideal axiomatizador de la geometría griega, solo que en unos términos que hacen
posible imaginar su proyección a cualquier dominio particular del conocimiento.

La robustez epistemológica de esta propuesta da lugar a dos programas


increíblemente ambiciosos: el Logicismo, y el Formalismo. El Logicismo está asociado
al nombre de Frege y al tandem formado por Whitehead y Russell –especialmente
este último-. Su lema consiste en la reducción de los conceptos fundamentales de la
matemática a conceptos lógicos. Se trata de un proyecto de fundamentación
extraordinariamente fuerte centrado básicamente en la redefinición conceptual de las
herramientas principales del conocimiento matemático vigente. Puesto que los
excesos se pagan, el programa logicista fue perdiendo empuje acosado por
innumerables problemas dejando, eso sí, un volumen de investigación lógica del que
todos somos deudores.

El Formalismo es propuesto por Hilbert y Bernays como un intento mucho más


modesto de servirse de la innegable utilidad de la Lógica. Su lema sostiene que toda
teoría matemática debe poder ser expresada en su etapa madura como una teoría
axiomática particular construida en un lenguaje como el anterior. Sin duda se trata de
algo mucho más sensato y comedido que lo que propone el Logicismo, aunque, tal
vez, esto sólo sea la apariencia. Porque van a ser los problemas que genere este
proyecto de fundamentación los que dan origen a los movimientos que conducirán
algunas décadas más tarde al nacimiento de la Teoría de la Computación.

El relativo éxito obtenido por estos autores en el caso de la geometría –


Grundlagen der Geometrie- fue suficiente como para pensar que el futuro se movía
claramente en esa dirección. Una de las principales consecuencias de concebir una
teoría matemática como una teoría lógica axiomatizada es que la primera hereda

55
Lógica y Computabilidad

todas las propiedades abstractas que cabe predicar de entidades del segundo tipo.
Esto tuvo el efecto de introducir una serie de problemas que antes, simplemente no
tenían sentido. Empezaremos por aclarar qué se entiende ahora por teoría, noción que
ya no hace referencia a una mera colección de tesis o enunciados.

[4] Una teoría formal T consiste en cualquier conjunto de fórmulas para el


que cabe afirmar lo siguiente: A∈T syss A es derivable a partir de T es
un sistema deductivo S previamente dado.

Una teoría es lo que habitualmente se conoce en Lógica como un conjunto


cerrado bajo consecuencia. Si conseguimos identificar una colección de fórmulas cuya
clausura bajo consecuencia basta para generar esa teoría, decimos que T es
axiomatiable. Si además esa colección es finita, entonces es finitamente
axiomatizable.

[5] Una teoría T es

i. consistente, si no hay una fórmula A tal que tanto ella como su


negación ¬A pertenezcan a T.
ii. completa, si para cualquier fórmula, o bien ella, o bien su
negación pertenecen a T.

Estas dos propiedades hacen referencia a la relación existente entre las


expresiones de un determinado formalismo y el sistema deductivo que con que se
opera. Esto lleva a que consideremos más ampliamente esa relación diciendo que

56
Una época de convulsiones

[6] Una teoría T es decidible syss existe un procedimiento mecánico que es


capaz de responder en tiempo finito cada una de las preguntas del tipo:

i. A es una fórmula de T
ii. A no es una fórmula de T.

Los problemas que el Formalismo importa de la Lógica tienen que ver


con la posibilidad de establecer estas propiedades y otras similares. En
concreto, podemos ver que el programa formalista se ve comprometido con la
necesidad de establecer para cada teoría matemática sometida a una serie de
resultados típicos.

[7] Problemas característicos del Programa Formalista

i. Determinar si T es axiomatizable en términos de alguna


colección de axiomas.
ii. Establecer la consistencia absoluta de T
iii. Establecer la completitud de T.
iv. Determinar si T es decidible.

Obsérvese que estos problemas son, quizá por vez primera, comunes a
cualquier dominio particular de las Matemáticas. Ello es así en la medida en que el
proyecto de formalización de una teoría matemática tiene como consecuencia
inmediata el confinamiento de la materia –contenido- específica de aquella teoría en
los axiomas, dejando que el aparato de prueba sea asunto exclusivo de la Lógica.
Cualquier demostración matemática es sobre todo y ante todo una demostración
Lógica establecida a partir de este o aquel conjunto de axiomas. En la medida en que
una demostración es, según [3], una construcción efectiva, el carácter probatorio de
una demostración matemática dependerá de un concepto universal de efectividad y

57
Lógica y Computabilidad

del aspecto de los axiomas que pueden intervenir en cada demostración particular. El
proceso de universalización que acaba por conducir a una forma única de entender el
concepto de tarea efectiva da su primer paso aquí. De hecho, una lectura atenta de
[7] permite ver que de todos los problemas enunciados hay uno, el último, que no
depende del contenido de los axiomas de teoría alguna. Es un resultado que indaga
en el carácter efectivo de las preguntas [6 i.] y [6 ii. ] para cualquier posible
emparejamiento de axiomas y fórmulas. Es decir, sólo depende del concepto lógico
de prueba tal y como lo hemos descrito en [3], siendo el sistema deductivo que actúa
como trasfondo el que se ha introducido en [2]. No es de extrañar que el propio Hilbert
viera en este problema un de los retos fundamentales de la Matemática del siglo xx
por su capacidad para cambiar sustancialmente el aspecto de la propia práctica de la
esa disciplina. El conocido como Problema de la Decisión –Entscheidungsproblem- es
expuesto por vez primera en el Congreso Mundial de Matemáticas que se celebra en
París adquiriendo el siguiente formato:

[8] Problema de la Decisión: Dada una fórmula A de la Lógica de Primer


Orden y un conjunto finito de premisas X también del lenguaje de esa
Lógica determinar mediante un procedimiento mecánico soluble en
tiempo finito las dos cuestiones siguientes:

i. A es derivable en LPO a partir de X


ii. A no es derivable en LPO a partir de X.

Curiosamente, los años siguientes, en los que queda patente la vigencia del
problema van provocando una especie de sentimiento de optimismo ante su solución
que permite dar paso a otras cuestiones consideradas entonces más acuciantes.

Como ya he insinuado antes, la primera década del siglo xx parecía confirmar


el éxito de este programa de forma sobrada. La axiomatización de la Geometría
euclídea sólo había dejado pendiente un extremo: determinar su consistencia

58
Una época de convulsiones

absoluta. El adjetivo “absoluta” se refiere más al carácter de la demostración de


consistencia que al concepto mismo. Por tanto, sería más adecuado hablar de una
demostración absoluta de consistencia que de consistencia absoluta. La tradición ha
querido que sea común encontrar ambos modos de referirse a este asunto. Una
demostración absoluta de la consistencia de una teoría T es una en la que no se hace
referencia a elementos o conceptos de esa teoría, ni de alguna otra de la que se
ignore su consistencia. La axiomatización de la Geometría ideada por Hilbert y
Bernays era consistente si a su vez lo era la Teoría elemental de números o
Aritmética, con lo que poco a poco empiezan a concentrase elementos de tensión
antes imprevistos en el estudio de algo tan básico como nuestro conocimiento acerca
de los números y las operaciones elementales que se pueden realizan con ellos.

Poco antes de terminar el siglo xix el polifacético matemático italiano G. Peano


había propuesto un sistema de axiomas expresables como un sistema de Primer
Orden que contaba con inmejorables perspectivas para convertirse en una
axiomatización consistente y completa de la Aritmética. Su sistema, conocido en su
honor como Aritmética de Peano consta de los siguientes recursos propios:

[9] Aritmética de Peano. (AP)

Ax.1 ∀x ¬(x’=0)
Ax.2 ∀x∀y (x’=y’→x=y)
Ax.3 ∀x (x+0=x)
Ax.4 ∀x∀y[(x+y’)=(x+y)’]
Ax.5 ∀x (x·0=0)
Ax.6 ∀x∀y[(x·y’)=(x·y)+x]

Ind. A(0) & ∀x(A(x)→A(x’))→∀xA(x)

59
Lógica y Computabilidad

El sistema está formado por 6 axiomas y un esquema, Ind., que formaliza en


Primer Orden el denominado esquema de inducción. No podemos referirnos a este
esquema como si se tratase de un axioma más, ya que, en realidad, constituye una
colección infinita de ellos: los que resultan al reemplazar la letra esquemática “A” por
una fórmula genuina. En esta presentación, AP resulta ser un sistema axiomático de
Primer Orden aunque no uno finito. Si AP constituyese una axiomatización de la
Aritmética podríamos decir que la Teoría elemental de números es axiomatizable,
aunque no finitamente. Poco a poco vemos cómo toma cuerpo el segundo de los
rasgos característicos asociados al nacimiento de la Teoría de la Computación: su
íntima relación con un entorno aritmético.

Demostrar la consistencia de un sistema de apariencia tan elemental como


este no debería resultar tarea excesivamente compleja y tampoco debería resultar
imposible establecer de alguna forma satisfactoria su completitud. Así las cosas,
dispondríamos de una demostración elemental y absoluta de la consistencia de la
Aritmética consiguiendo apoyar definitivamente la consistencia de la Geometría. Para
demostrar la consistencia absoluta de AP no cabe recurrir a principios no constructivos
o a recursos de tipo menos elemental que aquel que se desea establecer. Sin
embargo, por razonable que parezca este requisito, es difícil entender con precisión a
qué nos referimos cuando decimos que una demostración debe ser constructiva o
elemental. Es cierto que las demostraciones de la Lógica, o aquellas que transcurren
dentro de un sistema axiomático son constructivas en un sentido absolutamente claro
del término, sin embargo, no es fácil imaginar un sistema deductivo en el que pueda
probarse por métodos propios de la Lógica elemental afirmación alguna acerca de
otros sistemas de similar factura, a no ser que exista algún sistema con suficiente
potencia expresiva como para referirse en su interior a las pruebas de otros
formalismos.

Esta observación acerca de la posibilidad de tomar como marco de referencia


el carácter elemental de las demostraciones de la Lógica de Primer Orden constituye
el punto del que arrancan dos de los resultados de mayor fama dentro de la Lógica de
todos los tiempos. Me refiero, como es fácil imaginar, a los Teoremas de Incompletitud

60
Una época de convulsiones

de Gödel. Existe en torno a estos teoremas una mística que lleva a situarlos en una
especie de mundo de suprema abstracción prohibido al común de los mortales. Nadie
puede negar que se trata de resultados de especial complejidad, pero no creo que eso
llegue a impedir la posibilidad de exponer con claridad y rigor su arquitectura general.
Quizá no el detalle, pero si la generalidad de su estrategia. Esta especie de temor
reverencial suele venir acompañada de una más que llamativa falta de rigor acerca de
su contenido real. No es infrecuente oír hablar de que los Teoremas de Gödel
establecen la imposibilidad de demostrar la consistencia de la Aritmética, o que
permiten demostrar la existencia de enunciados verdaderos indemostrables, o incluso
cosas más desmelenadas como que son capaces de demostrar la futilidad del
conocimiento matemático. También es frecuente emplearlos en discusiones de altos
vuelos relativas a los límites de las habilidades mecánicas del ser humano o referidas
a su capacidad intrínseca para superar las capacidades de cualquier ingenio
mecánico. En lo que sigue, me propongo presentar estos resultados con el mínimo de
dramatismo posible. No quiero negar su indudable impacto epistemológico, al
contrario. Quizá porque estoy muy convencido de él sólo intento que quede claro lo
que anda en juego sin acudir a artificios o sobreactuaciones de ningún tipo. Por ello
voy a dividir su exposición en una serie de pasos que espero ayuden a comprender
mejor el proceso.

Paso 1. Se trata de demostrar la consistencia de la Teoría elemental de números


como si tal enunciado –el de la consistencia- constituyese una fórmula de algún
sistema deductivo de Primer Orden. En lo sucesivo, me referiré a este enunciado
como ConAP. ConAP es un enunciado de tipo metateórico: afirma desde el interior de un
cierto formalismo algo que se refiere a otro formalismo, el de AP en este caso.

Paso 2. ConAP no es un enunciado primitivo, sino que hace referencia a una


propiedad, la de la consistencia que viene definida en términos de otra propiedad que
parece más básica: la de la derivabilidad de una cierta fórmula. Por tanto, necesitamos
introducir otro predicado metateórico anterior que representaremos como Bew([A]) –
Bew por beweisbar, es decir, derivable. Más adelante explicaré el uso de corchetes-.
Una expresión del tipo Bew([A]) se lee A es derivable en el sistema al que se refiere el

61
Lógica y Computabilidad

predicado Bew. Si utilizamos el símbolo de absurdo “⊥” para representar cualquier


expresión del tipo A&¬A, ConAP quedaría definida como sigue:

[10] ConAP=def ¬Bew([⊥]).

El predicado Bew([.]) tampoco es primitivo. Que una fórmula sea demostrable


significa que existe una prueba de esa fórmula en el sistema en cuestión. Lo cual nos
lleva a requerir la presencia de otro predicado aún más primitivo, el de prueba.
Mediante Prov(y,x) podemos representar la relación fundamental existente entre dos
entidades de un cierto tipo según la cual afirmamos que la primera de ellas “y”
representa una prueba de la entidad representada por “x”. Que una fórmula A sea
demostrable en un sistema formal de referencia, AP en este caso, se define como
sigue:

[11] Bew([A])=def ∃y Prov(y,[A]).

Como es fácil imaginar, la lista sigue, porque la relación Prov(y,x) tampoco es


primitiva, pudiendo encontrar nuevos predicados y relaciones metateóricas que
reproducen paso a paso las definiciones usuales que la Lógica da de todos estos
términos.

Paso 3. Hemos definido lo que parece ser una serie de predicados metateóricos que
tiene como punto final ConAP pero que puede remontarse por toda la cadena
definicional hasta alcanzar nociones realmente primitivas como la de fórmula o
inferencia inmediata. Lo que hemos hecho es simular el proceso definicional que
habitualmente se produce el lenguaje objeto en un una especie de metalenguaje por
ahora sólo imaginado. El siguiente paso consiste en localizar, primero, una teoría
formal que tenga capacidad expresiva suficiente como para formalizar en su seno
predicados y propiedades con carácter metateórico. Eso pasa por que esa teoría sea
capaz de asignar nombres a entidades lingüísticas que pertenezcan al rango sobre el
que operan sus variables. Pensemos por un momento en el tipo de entidades que

62
Una época de convulsiones

constituyen el dominio de AP –en lo que es su modelo estándar-. Se trata del conjunto


de los enteros positivos. Es bien sabido que los enteros positivos pueden operar como
nombres de otras entidades lingüísticas bajo ciertas condiciones, constituyendo
entonces lo que se denomina un sistema de códigos o, simplemente, una codificación.
Ya hemos visto cómo opera un proceso de estas características al habla de las
Máquinas Universales de Turing. Las condiciones en cuestión exigen que las
entidades a representar sean cadenas finitas de símbolos extraídas a lo sumo de un
vocabulario de cardinal enumerable, y que además se cuente con suficiente aparato
matemático como para establecer el Teorema fundamental de la Aritmética. Resulta
que el lenguaje que hay que codificar es el empleado para formular Ap, pero Ap
cuenta, de hecho, con suficientes recursos como para codificar su propia sintaxis. Es
decir, se trata de una teoría suficientemente expresiva como para verter sus
expresiones –fórmulas- sobre su dominio de definición –los enteros positivos.

Paso 4. Una vez comprobada la potencia expresiva de Ap hay que proceder a definir
la serie completa de todos los predicados metateóricos descritos en los pasos 1 y 2.
Se trata de establecer definiciones constructivas sometidas a severos controles. Es
decir, hay que garantizar que los recursos definicionales empleados en el interior de
AP para reproducir estos predicados metateóricos preservan el carácter constructivo
que estos poseen en la metateoría. Para ello hay que contar con algún modelo interno
a AP que permita expresar ese carácter efectivo que deseamos ver incorporado en
muchos de los predicados metateóricos que hemos de considerar. El modelo que
Gödel elige está formado por la clase de las funciones numéricas recursivas primitivas
–que entonces él sólo denomina recursivas.-

Parece ser que fue Dedekind, original y creativo matemático alemán activo a
finales del xix y principios del xx, uno de los primeros en analizar qué rasgo es ese que
permite afirmar que una función numérica resulta efectiva. Parece obvio, piensa
Dedekind, que aquello de que se trate deberá buscarse en la misma definición de esa
función. De hecho, es posible identificar un rasgo común en las definiciones de las
funciones efectivamente calculables que parece asociado a esa conducta. Dedekind
utiliza el término definición inductiva para referirse a ese rasgo. Más adelante, ya en el

63
Lógica y Computabilidad

siglo xx, empieza a utilizarse en su lugar el término definición recursiva, que hace
fortuna hasta llegar a nuestros días. La idea es simple: la efectividad de una función
queda garantizada si fijamos el valor que asigna al “0” de forma explícita en su
definición y luego indicamos como obtener el valor siguiente a otro ya obtenido
mediante una operación elemental que es ella misma efectiva. De esta forma, los
valores de la función se van generando uno tras otro siguiendo el propio orden de los
números naturales mediante la aplicación recurrente –de ahí recursivo- de una
instrucción muy elemental.

La clase de las funciones recursivas primitivas se define como sigue:

[12] Base para la definición de la clase de las funciones recursivas primitivas


(Gödel 1931):

A. Funciones iniciales:

F1) s(x)=x'
F2) c(x1,...xn)=k, donde k∈ù
F3) pni(x1,...xi,...xn)=xi.

B. Reglas:

R1) Composición: φ(x1,...xn)=ψ(θ1(x1,...xn),...θm(x1,...xn))


R2) Recursión primitiva: φ(0,x1,...xn)=ψ(x1,...xn)
φ(y',x1,...xn)=θ(y,φ(y,x1,...xn),x1,...xn)

64
Una época de convulsiones

[13] Funciones recursivas primitivas [Frp]: Es la menor clase de funciones


numéricas que puede obtenerse a partir de las funciones iniciales
mediante el uso de las reglas de composición y recursión primitiva.

F1 es la función sucesor, que a cada entero positivo le asigna su sucesor en la


serie de los naturales. F2 es la función constante y asigna a cada n-tupla un valor
constante previamente fijado. F3 recibe el nombre de proyección i-ésima y a cada n-
tupla le asigna como valor el elemento i-ésimo de aquellos que se le suministran como
input.

Este paso finaliza demostrando que AP posee suficiente potencia expresiva


como para definir en su interior esta clase de funciones [Frp].

Paso 5. Las funciones recursivas primitivas poseen dos propiedades notables que se
siguen directamente a partir de la base [12] introducida para su definición: están
definidas para cada entero positivo, y el cálculo de sus valores resulta efectivo en un
sentido del término completamente inobjetable. No me entretendré ahora en ello. Las
funciones recusivas primitivas pueden emplearse para calcular si de un determinado
entero positivo se puede predicar esta o aquella propiedad –un ejemplo trivial pero
ilustrativo lo ofrece la propiedad de ser un número par, o un número primo, etc-. En
general, sirven para calcular de manera efectiva si una n-tupla de enteros positivos
satisface una cierta relación n-aria. Cuando un predicado o relación numérica está
asociado a una función recursiva primitiva de ese modo, él mismo recibe el nombre de
predicado (relación) recursivo primitivo. Este paso finaliza mostrando que buena parte
de la larga serie de predicados y relaciones metateóricas que llevan finalmente a la
definición de ConAp está formada por predicados y relaciones recursivos primitivos. De
hecho, Gödel muestra que todos lo son hasta llegar a Prov (y,x), éste incluido.

Paso 6. En este punto se opera un sutil giro en la argumentación. En lugar de razonar


de forma directa, se inicia un proceso de razonamiento por reducción al absurdo. La
razón de este cambio de estrategia reside en que el predicado metateórico Bew(x) se

65
Lógica y Computabilidad

define a partir de un predicado recursivo primitivo mediante el uso de un cuantor


existencial. Podemos determinar de manera efectiva cuándo dos enteros positivos x e
y están entre sí en la relación Prov(y,x). Es decir, cuándo sucede que el entero positivo
y constituye el código de una secuencia finita de fórmulas que constituyen una
demostración de la fórmula codificada por el entero positivo x. Sin embargo, no es fácil
determinar si el predicado metateórico Bew(x) definido como se indica en [11] hereda
esa conducta o no. Si resulta ser recursivo primitivo, entonces es evidente que para
cada fórmula A, siempre será posible determinar de manera efectiva si el entero
positivo k que constituye su código y que representamos como [A] –de ahí el uso de
corchetes- satisface o no el predicado Bew(x). Pero esto equivale, dada la capacidad
de AP para definir las funciones recursivas primitivas, a disponer de una prueba en Ap
de Bew([A]).

Con independencia de lo que se determine acerca de Bew(x), parece claro que


si se dispone de una demostración en AP de una cierta fórmula A, ese hecho, junto
con la definición de Bew(x) a partir de Prov(y,x), basta para sostener la validez general
de la siguiente regla:

[14] |AP A ⇒ |AP Bew([A]),

cuyo uso es fundamental en lo que sigue.

La descripción de este proceso nos sitúa realmente cerca de los términos en


que se plantea un problema clásico ligado a la capacidad autorreferencial del lenguaje
ordinario. Me refiero a la conocida paradoja del mentiroso o de Epiménides. Esta se
plantea si es o no posible otorgar un valor de verdad al enunciado siguiente “El
enunciado que figura aquí entrecomillado es falso”. La sospecha de Gödel es que algo
similar pueda tener lugar en el seno de AP. Su hipótesis se refiere en concreto al

66
Una época de convulsiones

problema que suscitaría un cierto enunciado G –por Gödel- del que pudiera
establecerse en Ap lo siguiente:

[15] |AP G↔¬Bew([G].

Es decir el enunciado G de Gödel resulta ser equivalente a aquel otro que dice
que G no es derivable en AP –ya que Bew(x) representa el predicado de prueba en
AP-.

Paso 7. Tras establecer que el teorema propuesto en [15] es realmente demostrable


en AP, Gödel pasa a evaluar de forma hipotética lo que sucedería si G fuera derivable
en AP. Lo veremos haciendo uso de los recursos representativos que suelen ser
habituales en un Cálculo de deducción natural. La primera hipótesis que necesitamos
considerar de manera fehaciente es que AP es, de hecho, consistente. Esto no supone
que dispongamos de una demostración de ese hecho, sino tan sólo que es preciso
suponer que lo es, ya que en otro caso no tendría sentido plantearse si G es o no
derivable: al ser AP inconsistente, cualquier fórmula sería derivable en AP. El
argumento opera del siguiente modo:

67
Lógica y Computabilidad

[16] El enunciado G no es derivable en AP, si AP es consistente.

1. AP es consistente Hipótesis
2. |AP G Hipótesis
3. |AP G↔¬Bew([G]) teorema previamente establecido
4. |AP ¬Bew([G]) lógica elemental entre 2 y 3
5. |AP Bew([G]) por la regla enunciada en [14]
6. |AP ¬G lógica elemental entre 5 y 3
7. |APG&¬G lógica elemental entre 2 y 6
8. AP G absurdo 2-7
9. si AP es consistente, entonces AP G.

Un razonamiento bastante similar permite demostrar que la negación de G,


esto es, ¬G tampoco es demostrable, aunque esta vez a partir de una hipótesis
ligeramente más fuerte. No basta con suponer que AP es consistente. Se hace preciso
suponer que es ω-consistente. Un sistema es ω-consistente cuando no existe ninguna
fórmula para la que suceda que |¬A(k) para cada entero positivo k cumpliéndose al
mismo tiempo que |∃yA(y). Prescindiremos del detalle y asumiremos directamente que
a partir de esta hipótesis ¬G no es demostrable. Años más tarde Rosser –1936-
modifica ligeramente el enunciado G obteniendo otro de similares consecuencias para
el que no se hace preciso ya suponer la ω-consistencia de AP, bastando con suponer,
también en este punto, la consistencia simple de AP. Simplificando un tanto, podemos
decir que este paso concluye estableciendo la existencia de un enunciado G propio de
la teoría de números para el cual no es posible establecer una demostración ni de él ni
de su negación, siempre, claro está que AP sea consistente. Esta afirmación es lo que
constituye el núcleo del llamado Primer teorema de Incompletitud de Gödel. Pero
sigamos ahora adelante.

68
Una época de convulsiones

Paso 8. El argumento desarrollado en [16] sólo apela a reglas lógicas elementales y


por tanto incluidas en AP y a enunciados metateóricos que pueden interpretarse
perfectamente en su seno. Esta observación llevó a Gödel a pensar que toda la
demostración seminformal llevada a cabo en [16] podía formalizarse íntegramente en
AP. Esto supone tanto como establecer el siguiente teorema:

[17] |AP ConAP→¬Bew([G])

Tras mostrar que este resultado es realmente obtenible en AP, es fácil darse
cuenta de que el enunciado ConAp no puede ser demostrado en AP, si es que esta
teoría es realmente consistente. El argumento se asemeja mucho al anterior:

[18] El enunciado ConAP no es derivable en AP, si AP es consistente.

1. AP es consistente Hipótesis
2. |APConAP Hipótesis
3. |AP ConAP→¬Bew([G]) teorema establecido en [17]
4. |AP ¬Bew([G]) lógica elemental entre 2 y 3
5. |AP G↔¬Bew([G]) teorema [15]
6. |AP G lógica elemental 4,5
7. |AP Bew([G]) regla [14]
8. |AP Bew([G])& ¬Bew([G]) lógica elemental 4,7
9. AP ConAP absurdo 2-8
10. Si AP es consistente, entonces AP ConAP

69
Lógica y Computabilidad

Así es como llegamos a lo que constituye básicamente el contenido del


Segundo Teorema de Incompletitud de Gödel que viene a afirmar la imposibilidad de
establecer una prueba constructiva y efectiva en el sentido ilustrado por la noción de
recursividad, de la consistencia de la Aritmética, siempre y cuando, claro está, que AP
resulte ser consistente.

Esta exposición de los resultados que aparecen en el artículo seminal de Gödel


de 1931 –Über formal unentscheidbare Sätze der Principia Mathematica und
verwandter Systeme I- no sigue el orden en que aparecen en el texto original. La razón
es sencilla: en el texto de Gödel se sigue un orden lógico en el que se ha hecho
desaparecer el planteamiento heurístico de su análisis. Es este planteamiento el que
he intentado recuperar en los pasos 1-4 mostrando que, en realidad, no hay ningún
acto de presciencia o advinación en este resultado, sino un concienzudo análisis de lo
que significa obtener una demostración de la consistencia de la Aritmética bajo unas
determinadas condiciones. Una vez que se reconoce que tales condiciones son las
que vienen dadas por las pruebas características de AP, el componente
autorreferencial del proyecto se hace evidente. Conectar ese fenómeno con la
aparición de paradojas constituye un ejercicio que no era inhabitual en la época. En el
periodo en que Gödel trabaja son muchos los casos de enunciados paradójicos que
afectan a distintos dominios del conocimiento matemático. No es extraño que Gödel se
planteara, como medida preventiva, qué efecto podría tener en su análisis la presencia
de un enunciado similar al del mentiroso. El resto, hasta demostrar su primer teorema,
es lógica elemental. Lo que a buen seguro no es elemental es el paso que conduce a
su segundo teorema. La formalización del argumento que muestra la imposibilidad de
probar G, si AP es consistente, genera un teorema formal –[17]- que permite llevar a
cabo un nuevo razonamiento elemental. Esta vez el resultado es su segundo teorema.
Se ha dicho muchas veces que si realmente hay que buscar un toque de genio en toda
esta argumentación, este probablemente consista en ese paso que conduce a
formalizar el argumento del primer teorema en el propio interior de AP.

70
Una época de convulsiones

Para que las conclusiones del razonamiento anterior queden claras voy a
formular con total rigor los enunciados de los dos teoremas de Gödel junto con alguna
de sus consecuencias más obvias.

[19] Primer Teorema de Incompletitud de Gödel: Si AP es consistente,


entonces existe una fórmula tal que no ella ni su negación son
demostrables en AP.

El resultado original –Teorema VI- utiliza unos términos ligeramente distintos y


apela, como ya he dicho, a la propiedad de la ω-consistencia, algo que luego se
mostró innecesario. Lo habitual ahora es presentar este resultado del modo que se
hace en [19]. De ahí se sigue que:

[20] Corolario: Si AP es consistente, entonces AP es una teoría incompleta.

Gödel añade, además, un sutil matiz en el que es preciso insistir. No se trata de


que AP sea una teoría incompleta por falta de capacidad expresiva. En realidad
sucede al contrario:

[21] Teorema (Incompletitud esencial): Cualquier teoría que contenga AP y


que sea consistente posee un enunciado del tipo de G tal que ni él ni su
negación son demostrables en esa teoría.

En la medida en que AP expresa lo que muy bien podría ser considerado como
un mínimo de contenido aritmético, el teorema anterior conduce a lo siguiente:

[22] Teorema: La Teoría elemental de números no es axiomatizable.

71
Lógica y Computabilidad

Una consecuencia muy renombrada de [21] y [22], y con frecuencia mal


expresada, es la siguiente:

[23] Teorema: Si AP es consistente, entonces existe una proposición


verdadera indemostrable en AP.

Esquema de la demostración. Puesto que la teoría de modelos que


subyace a toda la argumentación es clásica y en AP cada símbolo está
interpretado, o bien G es verdadero, o bien es ¬G quien es verdadero.
Puesto que G no es derivable bajo la hipótesis del teorema, parece ser
que es él mismo quien es verdadero.

En los años posteriores, en realidad algunas décadas después, se continuó


buscando sistemas con suficiente contenido aritmético que pudiesen soslayar, no
obstante, los resultados de Gödel. El más simple de estos es la Aritmética de
Robinson, que, además y a diferencia de AP, resulta finitamente axiomatizable. Hay un
cierto consenso acerca de que este sistema supone la mínima expresión axiomática
de una teoría elemental de números. Sin embargo, es igualmente incompleta.

Otro resultado de lo visto es lo siguiente:

[24] Teorema: El predicado de prueba asociado a AP, Bew(x), no es


recursivo primitivo.

Finalmente llegamos al segundo teorema que debe ser formulado como sigue:

[25] Segundo Teorema de Incompletitud de Gödel: Si AP es consistente,


entonces el enunciado formal que afirma que AP es consistente no
puede ser probado en AP.

72
Una época de convulsiones

Esta vez no resulta preciso acudir a la ω-consistencia siendo esta formulación


casi idéntica a la original –Teorema XI-.

¿Qué consecuencias tiene para el estudio formal de la noción de tarea efectiva


todo este complejo proceso? En mi opinión lo que se produce es el reconocimiento de
que la noción general y abstracta de tarea efectiva puede ser modelada por una clase
de procedimientos –[Frp]- reunidos por poseer precisamente esa característica. Puesto
que la efectividad mostrada por las funciones recursivas primitivas se dirige después a
analizar el carácter recursivo del predicado de prueba de un sistema formal, resulta
obvio que no estamos ante realización concreta alguna, sino ante una traducción
formal de un concepto universal. No hay nada específico en el modo en que las
funciones recursivas primitivas interpretan la noción de efectividad. Cada función en
[Frp] expresa una tarea efectivamente ejecutable en un modo que resulta
absolutamente elemental. Por otra parte, es evidente que lejos de hallarnos ante una
mera curiosidad matemática, estamos ante un fenómeno de indudable alcance
metateórico. En realidad, nos hallamos ante un canon formal que invita a considerar el
carácter efectivo de una tarea cualquiera en términos de su conexión con algún
algoritmo expresable por medio de una función en [Frp]. Esta idea es la que provoca
que el estudio de la noción de tarea efectiva se concentre a partir de ahora en el
cálculo de funciones numéricas. Gödel a dejado claro que el potencial expresivo de la
teoría elemental de números posee capacidad como para codificar en su interior
cualquier lenguaje enumerable particular y por tanto, queda garantizada la existencia
de un dominio privilegiado sobre el que discutir la efectividad o no de un
procedimiento. Puesto que cualquier procedimiento que pueda ser descrito de forma
finita podrá ser codificado en términos numéricos, la evaluación de su carácter efectivo
siempre podrá ser entendida como la localización de alguna función numérica efectiva
que representa ese procedimiento.

Lo que queda tras los resultados de Gödel es, a parte de la quiebra del
Programa formalista, la entrada en escena de un nuevo entorno privilegiado de

73
Lógica y Computabilidad

análisis. Si antes se pensaba que la Lógica Formal, la Lógica de los Principia, podía
brindar el marco único en el que expresar todo el conocimiento matemático existente,
ahora empieza a cuajar la idea de que el conocimiento matemático constructivo, aquel
que se refiere a la ejecución de tareas efectivas, encuentra en el entorno de las
funciones numéricas su contexto natural de análisis. En la medida en que cualquier
tarea efectiva puede ser representada como una tarea relativa a números, nos
encontramos con la aparición de un nuevo dominio de carácter fundamental: el de las
funciones numéricas efectivamente calculables.

Se ha dicho muchas veces que los resultados de Gödel ponen fin a una época
de optimismo en cuanto a la posibilidad de fundamentar por completo el conocimiento
matemático. Supone el fin de un sueño fundamentista y muestra la imposibilidad de
imaginar un único entorno formal en el que analizar clases enteras de problemas. Sin
embargo, lo que tiene lugar es un cambio de contexto, y no una merma del énfasis o
intensidad con que se pretende unificar en un dominio genérico todo un dominio
formal. La Lógica de Primer Orden no es ese dominio ideal en el que verter todo el
conocimiento matemático existente. Pero en su lugar aparece otro de carácter
universal que se postula como lugar en el que expresar toda tarea efectiva que quepa
imaginar. A diferencia de lo que sucediera con la Lógica, este nuevo terreno, ocupado
ahora por la Teoría de la Computación, no ha encontrado obstáculos que invaliden su
vigencia.

Gödel tiene para nosotros el valor de haber conducido la investigación formal


desde un Viejo continente, el de las expectativas generadas por la Lógica de Primer
Orden a un Nuevo Mundo caracterizado por el estudio de la efectividad de las
funciones definibles sobre los naturales. No tengo la impresión de que Gödel fuera en
un principio consciente de las consecuencias de su aportación. En particular, de la
dimensión de las nuevas posibilidades que se abrían a partir de entonces. A juzgar por
declaraciones posteriores, sólo más tarde entiende el carácter novedoso del estudio
de la efectividad por medios numéricos mostrando una sorpresa que pone de
manifiesto su escepticismo original. Son otros los que saben reconocer el Nuevo
Mundo que se abre ante nosotros, pero eso es materia del siguiente capítulo.

74
Una época de convulsiones

Orientación bibliográfica.

En este capítulo interviene la Lógica de forma explícita a través de una serie de


nociones de fundamental importancia. Si no se tiene una idea muy clara de su
definición lo mejor será acudir a algún manual elemental de Lógica. [Manzano, 1989]
cap. II ofrece la definición de lo que es un lenguaje de Primer Orden y presenta
diversas teorías matemáticas expresables con sus recursos. En [Marraud, 1990] cap
V.1 se describe la Aritmética de Peano y se discute sobre el principio de Inducción.

Nociones fundamentales como la de teoría, prueba, etc se pueden consultar en


[Manzano, 1989] cap. III.1, [Marraud, 1998] cap.I y en la tercera parte de [Hunter,
1968]. Como manuales generales de Lógica elemental disponemos en castellano de
[Badesa, Jané y Jansana, 1998] y [Falguera y Martínez Vidal, 1999] , entre muchos
otros. Para repasar de forma abreviada las distintas escuelas en competencia en la
época a la que se refiere este capítulo sigue estando bien [Kleene, 1952], cap.III.

75
Lógica y Computabilidad

76

You might also like