Melvin Henriksen -profesor emérito de matemáticas en el Harvey Mudd College- ofrece esta explicación:
Dar una declaración matemáticamente precisa del Teorema de Incompletitud de Godel sólo ocultaría su importante contenido intuitivo a casi cualquier persona que no sea especialista en lógica matemática. Así que, en su lugar, lo reformularé y simplificaré en el lenguaje de los ordenadores.
Imagina que tenemos acceso a un ordenador muy potente llamado Oracle. Al igual que los ordenadores con los que estamos familiarizados, Oracle pide que el usuario «introduzca» instrucciones que sigan unas reglas precisas y proporciona la «salida» o respuesta de una forma que también sigue estas reglas. La misma entrada producirá siempre la misma salida. La entrada y la salida se escriben como enteros (o números enteros) y Oracle sólo realiza las operaciones habituales de suma, resta, multiplicación y división (cuando es posible). A diferencia de los ordenadores normales, no hay que preocuparse por la eficiencia o el tiempo. Oracle llevará a cabo correctamente las instrucciones dadas sin importar el tiempo que le lleve y sólo se detendrá cuando se ejecuten… incluso si tarda más de un millón de años.
Consideremos un ejemplo sencillo. Recuerde que un número entero positivo (llamémoslo N) que es mayor que 1 se llama número primo si no es divisible por ningún entero positivo además de 1 y N. ¿Cómo le pediría a Oracle que decidiera si N es primo? Dile que divida N entre todos los enteros comprendidos entre 1 y N-1 y que se detenga cuando la división resulte uniforme o llegue a N-1. (En realidad, puedes parar si llega a la raíz cuadrada de N. Si no ha habido divisiones pares de N en ese punto, entonces N es primo.)
Lo que dice el teorema de Godel es que hay preguntas correctamente planteadas que implican sólo la aritmética de los enteros que Oracle no puede responder. En otras palabras, hay afirmaciones que -aunque introducidas correctamente- Oracle no puede evaluar para decidir si son verdaderas o falsas. Tales afirmaciones se llaman indecidibles, y son muy complicadas. Y si usted le llevara una al Dr. Godel, él le explicaría que tales afirmaciones siempre existirán.
Incluso si se le diera un modelo «mejorado» de Oracle, llámelo OracleT, en el que una afirmación indecidible particular, UD, se decretara como verdadera, se generaría otra afirmación indecidible para ocupar su lugar. Más desconcertante aún, también se podría dar otro modelo «mejorado» de Oráculo, llamado OráculoF, en el que el enunciado UD se decretaría como falso. En cualquier caso, este modelo también generaría otros enunciados indecidibles, y podría dar resultados diferentes a los de OracleT, pero igualmente válidos.
¿Le parece esto chocante y cercano a la paradoja? Fue aún más chocante para el mundo matemático en 1931, cuando Godel desveló su teorema de incompletitud. Godel no formuló su resultado en el lenguaje de los ordenadores. Trabajaba en un sistema lógico definido y los matemáticos esperaban que su resultado dependiera de las peculiaridades de ese sistema. Pero en la década siguiente, más o menos, varios matemáticos -entre ellos Stephen C. Kleene, Emil Post, J.B. Rosser y Alan Turing- demostraron que no era así.
La investigación sobre las consecuencias de este gran teorema continúa hasta hoy. Cualquier persona con acceso a Internet que utilice un motor de búsqueda como Alta Vista puede encontrar varios cientos de artículos de calidad muy variada sobre el Teorema de Godel. Sin embargo, una de las mejores lecturas es Godel’s Proof (La prueba de Godel), de Ernest Nagel y James R. Newman, publicada en 1958 y editada en rústica por New York University Press en 1983.