Professional Documents
Culture Documents
Introducción
Unidad 1
Filosofía de las ciencias. Historia disciplinar y sus problemas. Las etapas del desarrollo
disciplinar. Epistemología, Filosofía de las ciencias y Teoría del conocimiento: del conocimiento
en general al análisis de las teorías científicas. La pluralidad problemática de la disciplina:
cuestiones lógicas, epistemológicas y metafísicas.
Prólogo
En ciertos aspectos, la filosofía de la ciencia, que es una disciplina reciente, tiene relaciones
temáticas con otra disciplina filosófica mucho más antigua, la teoría (o filosofía) del
conocimiento. Sin embargo, siguen una metodología bastante diferente. El objeto de la
reflexión filosófica es también diferente en ambas disciplinas: mientras que la teoría del
conocimiento se ocupa de las condiciones y límites del conocimiento humano en general, la
filosofía de la ciencia analiza la estructura y el funcionamiento de esta forma muy particular de
conocimiento que es el conocimiento científico. La filosofía de la ciencia es fundamentalmente
una disciplina teórica de ''segundo orden" en relación con las ciencias existentes, es decir, una
"metaciencia". El objetivo de la filosofía de la ciencia es construir modelos (metacientíficos)
para elucidar lo que es esencial en los conceptos, teorías, métodos y relaciones mutuas que se
dan entre las ciencias establecidas. Y justamente en este sentido es, pura y claramente, una
disciplina ante todo filosófica. Un término casi sinónimo de "filosofía de la ciencia" en el
sentido en que la entiendo aquí es el más tradicional de "epistemología". Este término tiene
contornos semánticos más generales que, por lo regular, corresponden mejor a la teoría
general del conocimiento.
Una segunda advertencia concierne a los límites de las disciplinas que son el objeto estudiado
por la filosofía de la ciencia. Se trata de ciencias que se suelen llamar "empíricas" (física,
química, biología, psicología, economía, etc.) -es decir, disciplinas cuya validez depende,
aunque sea de
una manera muy indirecta, de aquello que llamamos "experiencia sensible"-. Utilizaré el
calificativo "empírico" para designar el conjunto de disciplinas de la naturaleza o de la
sociedad,
y excluiré las disciplinas puramente formales como la lógica o las matemáticas.
Una tercera advertencia tiene que ver con el grado de generalidad que pretenden tener las
doctrinas sobre las ciencias. Se trata de teorías generales sobre las ciencias (empíricas) o, lo
que es lo mismo, de teorías sobre las ciencias (empíricas) en general. En el transcurso del siglo
XX se llevaron a cabo un número considerable de investigaciones sumamente interesantes
sobre problemas lógico-metodológicos o epistemológicos de disciplinas científicas particulares.
Existe así no sólo una filosofía de la física, de la biología, de la economía, etc., sino incluso una
filosofía de la teoría especial de la relatividad, una filosofía de la mecánica cuántica, una
filosofía de la teoría de la evolución,… Es muy común distinguir la filosofía general de la ciencia
de la filosofía especial de las ciencias, es decir, de la filosofía de las ciencias particulares. No
obstante, los problemas y métodos de análisis de una y otra (aunque frecuentemente se hallen
en relación de influencia mutua) no son idénticos.
La filosofía de la ciencia nació prácticamente con el siglo XX; entre finales del siglo XIX y la
Primera Guerra Mundial. “Ciencias inductivas” se convierte en el término consagrado, durante
todo el siglo XIX y el primer cuarto del siglo XX, para el conjunto de las disciplinas reunidas hoy
dentro de la categoría de “ciencias empíricas”. Parecía evidente que el método que caracteriza
las ciencias de la naturaleza y de la sociedad es la inducción, por oposición a la deducción,
método específico de la lógica y de la matemática pura. Hoy en día no se habla más de
“ciencias inductivas”. Más tarde, en 1895, en la Universidad de Viena, se crea la cátedra
“Historia y teoría de las ciencias inductivas”. Esta cátedra fue creada para Ernst Mach. Cuando
March se retiró, la cátedra se le asignó a Ludwig Boltzmann y, posteriormente, en 1992, a
Moritz Schlick. Este último conformó un grupo de filósofos y científicos que en 1928 constituyó
la Asociación Ernst Mach, la cual a su vez devino el “escaparate institucional” del famoso
Círculo de Viena, decisivo en la constitución del perfil de la filosofía de la ciencia en el siglo XX.
“Prehistoria” y “protohistoria”
Desde el momento en que una ciencia se constituye como disciplina autónoma en relación con
la filosofía (por ejemplo; en la Antigüedad griega, la geometría y la astronomía), los filósofos
inician una reflexión filosófica de "segundo orden" sobre esta disciplina, es decir, una reflexión
metodológica y metateórica. Aristóteles puede ser considerado el primer filósofo de la ciencia
en un sentido próximo al que le damos hoy. A él particularmente le debemos la idea de
sistema axiomático como ideal de toda construcción de una teoría científica. Luego, la filosofía
trascendental kantiana, en particular en lo concerniente a las tesis presentadas en la Crítica de
la razón pura (1781) y en los Primeros principios metafísicos de la ciencia natural (1786), marca
una etapa importante en lo que podemos llamar la "protohistoria" de nuestra disciplina. El
pensamiento kantiano ha influido fuertemente en las discusiones filosófico-científicas hasta
mediados del siglo XX. El enfoque kantiano se puede interpretar como un primer ejemplo de
metateoría sistemática, es decir, como la construcción de un "modelo", en el sentido moderno,
de la estructura conceptual de las teorías científicas. Kant toma como objeto de reflexión dos
teorías ya bien establecidas en su tiempo (la geometría euclídea y la mecánica newtoniana), y
se pregunta qué estructura conceptual subyacente podría explicar por qué estas dos teorías, a
pesar de ser tan "abstractas", ofrecen un conocimiento preciso y eficaz de la realidad empírica.
La concepción general kantiana de los juicios sintéticos a priori, de las categorías y de las
formas puras de la intuición (espacio y tiempo) puede interpretarse como una metateoría
general de las teorías de las ciencias empíricas matematizadas (representadas por lo que hoy
llamamos la geometría física y la mecánica clásica). Estos elementos a la vez sintéticos (es decir,
con un contenido sustancial) y a priori (es decir, independientes de la experiencia) nos
permiten comprender por qué la matematización de las ciencias de la naturaleza nos da un
conocimiento cierto y exacto de la realidad empírica. Raros son los filósofos de la ciencia que
aún hoy aceptan el conjunto de la metateoría kantiana. Sin embargo, Kant estableció las bases
de la discusión sobre muchos temas centrales de la filosofía de la ciencia, tales como la función
de las matemáticas en las ciencias empíricas, la naturaleza de las leyes científicas, el valor del
principio de causalidad o aun la esencia del espacio y del tiempo. Muy particularmente, la
doble distinción kantiana analítico/sintético y a priori/a posteriori, igual que la existencia de
elementos sintéticos a priori en nuestro conocimiento científico.
De los filósofos del idealismo alemán posteriores a Kant, su objetivo, sobre todo en el caso de
Hegel y Schelling, fue más bien construir una filosofía de la naturaleza, es decir, una
especulación directa (de "primer orden") sobre la realidad empírica, basada en sus respectivos
sistemas metafísicos. Se podría interpretar la "filosofía de la naturaleza" de Schelling y Hegel
como intentos de proponer programas de investigación alternativos a los que habían
constituido las ciencias a partir de la "revolución científica" del siglo XVII. Tras el paréntesis del
idealismo alemán, Auguste Comte (Francia, 1798-1852), fundador del positivismo, da un nuevo
impulso a la filosofía de la ciencia como reflexión de "segundo orden" sobre las ciencias
establecidas durante el segundo cuarto del siglo XIX. Comte construyó un sistema clasificatorio
y jerárquico de las ciencias desde una perspectiva sincrónica y diacrónica a la vez, que le
permite explicar su desarrollo y formular, por así decirlo, unas "normas de la buena conducta
científica". También en Inglaterra se había desarrollado un interés particular por las cuestiones
metodológicas de las ciencias naturales hacia la mitad del siglo XIX. Los tres pensadores más
característicos en este sentido son sin duda John Herschel (1792-1871), William Whewell
(1794-1866) y John Stuart Mill (1806-1873). Al igual que Comte, no querían dar paso a la
metafísica especulativa y se guiaban más por las ciencias naturales establecidas en su tiempo.
Al contrario de Comte, no se interesaron por la cuestión de la clasificación sistemática de las
ciencias, sino más bien por la fundamentación de una metodología general del conocimiento
empírico. Es común para los tres autores el lugar central que ocupa en sus reflexiones el
concepto de inducción como método fundamental de la investigación empírica. Sin embargo,
en su caso, la inducción no representa -como en la tradición filosófica precedente- un sistema
de reglas formales de inferencia que supuestamente debieran permitir derivar regularidades
generales a partir de observaciones particulares, sino la construcción de hipótesis rivales sobre
un determinado campo de investigación, que deben ser contrastadas de diversas maneras con
la experiencia. A nivel más sistemático, Mill intentó identificar y formular lo más exactamente
posible los diferentes métodos inductivos de apoyo de hipótesis. Mill pretendió que, en
condiciones especialmente favorables, debía ser posible alcanzar los fundamentos
absolutamente seguros de las ciencias empíricas (como la física) a través de la aplicación
sistemática de los métodos inductivos explicitados por él. Por el contrario, Whewell se
mantuvo escéptico frente a esta posibilidad; según él, no se puede afirmar -por principio- la
verdad definitiva de las hipótesis empíricas. En este sentido, el falibilismo de Whewell está más
cerca que Mili del desarrollo de la filosofía de la ciencia del siglo XX. Sea a causa del idealismo
alemán, del positivismo francés o del inductivismo británico, el caso es que el pensamiento de
Kant en relación con los fundamentos de las ciencias naturales quedó al margen durante la
mayor parte del siglo XIX. Esto se debió no sólo a la evolución interna de la filosofía, sino quizá
todavía más al hecho de que el desarrollo enorme que las ciencias empíricas experimentaron a
lo largo del siglo XIX se produjo de un modo completamente independiente de las cuestiones
sobre el fundamento del conocimiento científico que Kant había planteado. Además, ciertos
resultados científicos obtenidos durante este periodo, en particular el auge de las geometrías
no euclídeas hacia la mitad del siglo, aparecían como una refutación definitiva de la idea
kantiana de la existencia de un elemento sintético a priori en los fundamentos de las ciencias.
Los últimos años del siglo XIX y los primeros del siglo XX son testimonio de una verdadera
"resurrección" del interés por Kant, tanto en los medios estrictamente filosóficos como entre
los investigadores que se ocupan de los fundamentos de las ciencias. Es precisamente en este
periodo que la filosofía de la ciencia se comienza a perfilar como una disciplina autónoma. Sin
duda, entre los "filósofos puros" de este periodo hay que mencionar la escuela de los
neokantianos y, particularmente en lo que concierne a la reflexión sobre las ciencias naturales,
a Ernst Cassirer (Alemania, 1874-1945). El papel primordial en la construcción de nuestra
disciplina corrió a cargo de una serie de científicos de orientación filosófica que, aun siendo
críticos con respecto a las tesis kantianas, supieron reemprender las cuestiones planteadas por
Kant, de una forma directa, o a través de la lectura de las reflexiones de orden kantiano
realizadas por otros autores de la generación inmediatamente precedente, siendo Helmholtz el
primero de ellos.
En el desarrollo de la filosofía de la ciencia desde los últimos años del siglo XIX hasta el fin del
siglo XX, se pueden distinguir cinco grandes fases. La fase de germinación o de preformación
(de 1890 aproximadamente hasta el fin de la Primera Guerra Mundial) está caracterizada
principalmente por reflexiones epistemológicas y metodológicas de ciertos científicos (físicos y
fisiólogos) y de algunos filósofos dotados de conocimientos científicos sólidos, así como por
influencias más o menos directas de Kant y de la fisiología de los sentidos del siglo XIX. El
empiriocriticismo y el convencionalismo representan las corrientes más destacadas de esta
fase. El interés por la historia de la ciencia no es insignificante, pero tampoco decisivo. La fase
de eclosión (1918-1935) se define por la irrupción intensa y generalizada de métodos de
análisis formal (lógica formal, axiomática hilbertiana, teoría de conjuntos) y por la vinculación
con los problemas de los fundamentos de la matemática, así como por una clara voluntad de
ruptura con las tradiciones epistemológicas precedentes y una postura polémica contra toda
forma de metafísica. Se considera que el proyecto kantiano tiene que abandonarse
definitivamente. Es la época del positivismo y empirismo lógicos, del operacionalismo y de
otras corrientes afines.
La fase clásica (aproximadamente de 1935 a 1970) presenta básicamente una continuidad, al
menos temática y metodológica, con respecto a la fase precedente; sin embargo, es al mismo
tiempo más autocrítica y más "serena". Aporta asimismo numerosos y sólidos resultados
formales (aunque a menudo negativos), y favorece los estudios de detalle a veces
extremadamente técnicos. No podemos hablar aquí de una escuela dominante, sino más bien
de una "familia" con un aire vagamente empirista en un sentido bastante amplio (que debería
incluir el "racionalismo crítico" y la concepción hipotéticodeductiva del método científico).
Durante esta fase la filosofía de la ciencia se consolida definitivamente como disciplina. Los
filósofos de la ciencia que vinieron después se refieren a ella como una “concepción heredada”.
La fase historicista (aproximadamente de 1960 a 1985) explícitamente se opone en su totalidad
a los presupuestos de contenido y de método de las fases anteriores, y subraya al mismo
tiempo la importancia capital de la historia de la ciencia para una filosofía "realista" de la
ciencia. Asimismo, esta fase ignora e incluso niega abiertamente la utilidad de los métodos de
análisis formal. El empirismo lógico y el racionalismo crítico se arrojan al "vertedero de la
historia". Otro aspecto de esta fase es una fuerte tendencia al relativismo epistémico y al
sociologismo en lo que concierne a los fundamentos del conocimiento científico. A partir de
1970, la fase modelista aporta una mirada bastante crítica sobre los presupuestos de las fases
segunda y tercera, aunque sin el carácter polémico de la cuarta, y sin rechazar en bloque la
utilidad, en algunos contextos, de instrumentos formales de análisis. Más aún que en las fases
precedentes es difícil hablar en este caso de una corriente única. Se pueden señalar dos
"denominadores comunes": un giro "antilingüístico" en relación con las corrientes precedentes,
que privilegia la noción de modelo frente a la de proposición como unidad básica del
conocimiento científico, y el papel central desempeñado por las reconstrucciones, lo más
detalladas posible, de teorías científicas concretas. Resulta sintomático que esta fase vea el
surgimiento de lo que se ha dado en llamar la "filosofía especial de la ciencia" -filosofía de la
física, de la biología, de la economía, etc-. Sin embargo, también encontramos algunos
enfoques relativamente sistemáticos alimentados por ambiciones generalizadoras, siendo
probablemente los más significativos el estructuralismo (metateórico) y el empirismo
constructivo.
Klimovsky, G. – Las desventuras del conocimiento científico: introducción a la epistemología
El concepto de la ciencia
Cuando se habla de ciencia, para iniciar y llevar adelante una discusión es necesario adoptar
determinada unidad de análisis (entre las que se destacará la noción de teoría). Conviene
pensar en la ciencia en estrecha vinculación con el método y con los resultados que se
obtienen a partir de él. Ello permite distinguir a la ciencia de la filosofía, el arte y otros campos
de la cultura humana. Sin embargo, hay una unidad de análisis más tradicional, la disciplina
científica, que pone el énfasis en los objetos en estudio y a partir de la cual podríamos hablar
de ciencias particulares: la física, la química, la sociología. Aristóteles, por ejemplo, habla de
disciplinas demostrativas (las que usan el método demostrativo) y caracteriza cada una de ellas
según el género de objetos que se propone investigar. La física, por ejemplo, podríamos afirmar
que se trata de cuerpos o entidades que se hallan en el espacio y el tiempo reales. La
geometría se ocuparía de figuras, la biología de seres vivos y la psicología de cuerpos que
manifiestan conducta o psiquismo. Pero, los objetos de estudio de una disciplina cambian a
medida que lo hacen las teorías científicas; ciertos puntos de vista son abandonados o bien, en
otro momento de la historia de la ciencia, pueden ser readmitidos. En lugar de pensar en
disciplinas preferimos pensar en problemas básicos que orientan distintas líneas de
investigación. Lo cual nos lleva a considerar una nueva unidad de análisis, la teoría científica.
Una teoría científica, en principio, es un conjunto de conjeturas, simples o complejas, acerca
del modo en que se comporta algún sector de la realidad. En ciencia, problemas y teorías van
de la mano. Por todo ello la teoría es la unidad de análisis fundamental del pensamiento
científico contemporáneo.
Lenguaje y verdad
A propósito del conocimiento, hemos dicho que éste se expresa por medio de afirmaciones,
con lo cual tomamos partido en favor de una aproximación lingüística a la cuestión. No es la
única. En su análisis de la ciencia, ciertos filósofos ponen el énfasis en lo que conciben como un
determinado modo de pensamiento, especialmente privilegiado: el pensamiento científico.
Pero el pensamiento es privativo de quien lo crea, y sólo se transforma en propiedad social si
se lo comunica a través del lenguaje. El enfoque del fenómeno científico es lingüístico, sobre
todo en relación con el examen de sus productos, por cuanto socialmente la ciencia como
cuerpo de conocimientos se ofrece bajo la forma de sistemas de afirmaciones. Ello se
corresponde con una tendencia característica de este momento de la historia de la cultura,
como es la de privilegiar el papel del lenguaje en el análisis del arte, de las sociedades o del
hombre, y también en los campos de la lógica, la matemática o la teoría del conocimiento. Por
tanto cuando tratemos acerca de conjeturas o teorías científicas debemos entenderlas como
propuestas, creencias u opiniones previamente expresadas por medio del lenguaje.
Cuando nos referíamos a la concepción platónica del conocimiento empleamos la palabra
"verdad". En ciencia la verdad y la falsedad se aplican a las afirmaciones o enunciados, y no,
por ejemplo, a los términos. Tiene sentido decir que "El cielo es azul" es verdadero o falso, mas
no lo tiene decir que cielo o azul lo sean. Platón exigía, como ya señalamos, que para que un
enunciado exprese conocimiento debe ser verdadero. Sin embargo, una teoría científica puede
expresar conocimiento y su verdad no estar suficientemente probada. Dado que el problema
radica en la esquiva significación de la palabra "verdad", tendremos que aclarar en qué sentido
la utilizaremos. No hay obligación, legal o moral, de emplear la palabra de uno u otro modo. En
el lenguaje ordinario la palabra "verdad" se emplea con sentidos diversos. Por un lado, indicar
un tipo de correspondencia entre la estructura que atribuimos a la realidad en nuestro
pensamiento y la que realmente existe en el universo. Pero a veces parece estar estrechamente
ligada a la idea de conocimiento: decimos, en medio de una discusión, "esto es verdad" o "esto
es verdadero" para significar que algo está probado. En otras ocasiones, curiosamente,
"verdad" se utiliza no en relación a la prueba sino a la creencia. Decimos: "Ésta es tu verdad,
pero no la mía", con lo cual estamos cotejando nuestras opiniones con las del interlocutor. La
primera acepción es en principio la que resulta de mayor utilidad. Proviene de Aristóteles,
quien la presenta en su libro Metafísica, y por ello se la llama "concepto aristotélico de
verdad". Se funda en el vínculo que existe entre nuestro pensamiento, expresado a través del
lenguaje, y lo que ocurre fuera del lenguaje, en la realidad. Aristóteles se refiere a esta relación
como "adecuación" o "correspondencia" entre pensamiento y realidad. De allí que a la noción
aristotélica se la denomine también "concepción semántica" de la verdad, pues la semántica se
ocupa de las relaciones del lenguaje con la realidad, que está más allá del lenguaje. La acepción
aristotélica nos resultará muy conveniente para comprender qué es lo que hay detrás de
ciertas formulaciones del método científico y en particular del llamado método hipotético
deductivo. Sin embargo, en el ámbito de ciencias formales como la matemática, hay un
importante sentido de la palabra "verdad": decir, por ejemplo, que una proposición
matemática es verdadera significa que es deductible a partir de ciertos enunciados de partida,
fijados arbitrariamente.
En el papel de la ciencia entendida como conocimiento de hechos, en tal sentido la
matemática, al igual que la lógica, será considerada como una herramienta colateral que sirve a
los propósitos de las ciencias fácticas, cuyo objetivo es, precisamente, el conocimiento de los
hechos. Un hecho es la manera en que las cosas o entidades se configuran en la realidad, en
instantes y lugares determinados. Será un hecho, por tanto, el que un objeto tenga un color o
una forma dadas, que dos o tres objetos posean determinado vínculo entre sí o que exista una
regularidad en acontecimientos de cierta naturaleza. En los dos primeros casos hablaremos de
hechos singulares, pero al tercero lo consideraremos un hecho general. Cuando una afirmación
que se refiere a la realidad resulta verdadera, es porque describe un posible estado de cosas
que es en efecto un hecho. Son ciencias fácticas tanto la física o la biología como la psicología,
la sociología o la economía, porque éstas pretenden dar cuenta de hechos que se manifiestan,
en cada caso, en un determinado sector de la realidad. En el ámbito de las ciencias fácticas, el
concepto aristotélico de verdad parece indispensable. Por las reglas gramaticales, semánticas y
lógicas del lenguaje, quien realiza el acto pragmático de afirmar un enunciado pretende
describir un posible estado de cosas y al mismo tiempo persuadirnos de que ello es lo que
acontece en la realidad. Si dicho estado de cosas realmente acaece, si la descripción coincide
con lo que sucede en la realidad, diremos que el enunciado es verdadero. La afirmación "En el
tejado hay un gato" es verdadera si, y sólo si, en el tejado hay un gato. Por el momento los
asimilaremos a lo que los gramáticos llaman oraciones declarativas, utilizadas precisamente
con el propósito de comunicar que las cosas tienen ciertas cualidades, guardan entre sí ciertas
relaciones o presen
tan ciertas configuraciones. En nuestro siglo, el lógico polaconorteamericano Alfred Tarski,
logró una reelaboración de la concepción semántica de Aristóteles, según la cual la verdad
consiste en una relación positiva e íntima entre lenguaje y realidad.
La noción aristotélica de verdad no tiene ingrediente alguno vinculado con el conocimiento.
Una afirmación puede ser verdadera sin que nosotros lo sepamos, es decir, sin que tengamos
evidencia de que hay correspondencia entre lo que describe la afirmación y lo que realmente
ocurre. También podría ser falsa, y nosotros no saberlo. "Hay otros planetas habitados en el
universo" es un enunciado o bien verdadero o bien falso, pero en el estado actual de nuestro
conocimiento no podemos decidir acerca de su verdad o falsedad. Por ejemplo, quien formula
una hipótesis no sabe si lo que ella describe se corresponde o no con los hechos. La hipótesis
es una conjetura, una afirmación cuyo carácter hipotético radica en que se la propone sin
conocimiento previo de su verdad o falsedad. Uno de los problemas que plantea la
investigación
científica es el de decidir con qué procedimientos, si es que los hay, podemos establecer la
verdad o la falsedad de una hipótesis. Desde el punto de vista del avance del conocimiento
científico, puede ser tan importante establecer una verdad como una falsedad, es decir, la
ausencia de correspondencia entre lo que se describe y lo que realmente acontece. En la
historia de la ciencia hay muchos ejemplos de hipótesis falsas que sobrevivieron durante largo
tiempo hasta que se logró probar su falsedad.
En síntesis: es necesario discriminar entre la verdad y el conocimiento de la verdad, entre la
falsedad y el conocimiento de la falsedad. La operación de establecer si una afirmación es
verdadera o falsa pertenece al ámbito del conocimiento y es posterior a la comprensión del
significado atribuido a los términos "verdad" y "falsedad". Quien toma una fotografía no sabe
de inmediato si se corresponde o no con el objeto fotografiado, es decir, si es nítida o está
distorsionada. Lo sabrá luego de que sea revelada. Pero la fotografía ya será nítida o
distorsionada antes de que el fotógrafo conozca el resultado de esa operación y pueda
asegurar que ha tomado una buena o una mala fotografía.
Verificación y refutación
Epistemología: muchos autores franceses e ingleses la utilizan para designar lo que en nuestro
medio se llama "teoría del conocimiento" o "gnoseología", es decir, un sector de la filosofía
que examina el problema del conocimiento en general: el ordinario, el filosófico, el científico,
etc. Pero en este libro el término "epistemología" será empleado en un sentido más
restringido, referido exclusivamente a los problemas del conocimiento científico, tales como las
circunstancias históricas, psicológicas y sociológicas que llevan a su obtención, y los criterios
con los cuales se lo justifica o invalida. La epistemología sería, entonces, el estudio de las
condiciones de producción y de validación del conocimiento científico.
El epistemólogo se formula una pregunta de crucial importancia para comprender y analizar la
significación cultural de la ciencia en la actualidad: por qué debemos creer en aquello que
afirman los científicos. No acepta sin critica el conocimiento científico, sino que lo examina del
modo más objetivo posible. Al igual que un filósofo, frente a cualquier teoría y con
independencia de que esté apoyada por la tradición o sea muy reciente, se preguntará por su
aparición como fenómeno histórico, social o psicológico, por qué hay que considerarla como
buena o mala, o cuáles son los criterios para decidir si una teoría es mejor o peor que otra. La
epismología es por ello una actividad critica que se dirige hacia todo el campo de la ciencia.
Estrechamente vinculada a la epistemología se halla la filosofía de la ciencia. Sin embargo, la
filosofía de la ciencia, como la filosofía en general, abarca muchos problemas que no son
estrictamente epistemológicos. Un problema filosófico sería, por ejemplo, tratar de decidir si la
realidad objetiva existe o es una ilusión de los sentíos; en este ámbito, el filósofo de la ciencia
puede interesarse por la cuestión de si la física, por ejemplo, presupone una metafísica peculiar
que afirme la existencia de una realidad externa a la subjetiva. Pero éste no es un problema
central para la epistemología. Se puede sostener que los criterios de validación de una teoría
no son necesariamente dependientes de criterios metafísicos. Es asunto de controversia. Los
presupuestos filosóficos que existen en la ciencia influirían de un modo esencial en la adopción
de éste o aquel criterio epistemológico. De manera que el término "filosofía de la ciencia'' es
más amplio que el término "epistemología", y ésta sería tal vez una disciplina independiente de
aquélla, si bien las conexiones entre ambas y las presuposiciones epistemológicas constituyen
de por sí asunto del mayor interés filosófico. Una tercera palabra que suele compartir un
mismo discurso con el término 'epistemología" es "metodología". En general, y a diferencia de
lo que sucede con el epistemólogo, el metodólogo no pone en tela de juicio el conocimiento ya
obtenido y aceptado por la comunidad científica. Su problema es la búsqueda de estrategias
para incrementar el conocimiento. Por ejemplo, está fuera de discusión para el metodólogo la
importancia de la estadística, pues ésta constituye un camino posible para obtener, a partir de
datos y muestras, nuevas hipótesis. En cambio, el epistemólogo podría formularse, a modo de
problema, la pregunta por el pretendido valor atribuido a los datos y muestras. Epistemología y
metodología abordan distintos ámbitos de problemas, aunque es obvio que el metodólogo
debe
utilizar recursos epistemológicos pues, si su interés radica en la obtención de nuevos
conocimientos, debe poseer criterios para evaluar si lo obtenido es genuino o no lo es, ya que
no podría ser adepto a una táctica que lo llevara a tener por válido un "conocimiento
equivocado". La metodología, en cierto modo, es posterior a la epistemología. Sin embargo, y
tal como sucede con la relación entre ciencia y tecnología, a veces un procedimiento
metodológico se descubre casualmente, se emplea por razones de heurística y entonces el
epistemólogo se ve en la necesidad de justificarlo en términos de su propio ámbito de estudio.
Contextos
Acerca de los diferentes sectores y temáticas en los que transcurren la discusión y el análisis de
carácter epistemológico. Hans Reichenbach, en su libro Experiencia y Predicción, discrimina
entre lo que llama contexto de descubrimiento y contexto de justificación. En el contexto de
descubrimiento importa la producción de una hipótesis o de una teoría, el hallazgo y la
formulación de una idea, la invención de un concepto, todo ello relacionado con circunstancias
personales, psicológicas, sociológicas, políticas y hasta económicas o tecnológicas que
pudiesen haber gravitado en la gestación del descubrimiento o influido en su aparición. A ello
se opondría por contraste el contexto de justificación, que aborda cuestiones de validación:
cómo saber si el descubrimiento realizado es auténtico o no, si la creencia es verdadera falsa, si
una teoría es justificable, si las evidencias apoyan nuestras afirmaciones o si realmente se ha
incrementado el conocimiento disponible. El contexto de descubrimiento estaría relacionado
con el campo de la psicología y de la sociología, en tanto que el de justificación se vincularla
con la teoría del conocimiento y en particular con la lógica. Sin embargo, habría estrechas
conexiones entre el problema de la justificación de una teoría (y de sus cualidades lógicas) y la
manera en que se la ha construido en la oportunidad en que ella surgió. En particular, tal es la
opinión de Thomas Kuhn. A su entender los criterios de aceptación de una teoría deben
basarse en factores tales como el consenso de una comunidad científica, de lo cual resultaría
que los procedimientos mediante los cuales se obtiene, se discute y se acepta el conocimiento
resultan de una intrincada mezcla de aspectos no sólo lógicos y empíricos sino más bien
ideológicos, psicológicos y sociológicos. En tal sentido, Kuhn interpreta que la separación entre
contextos seria artificial y daría una visión unilateral y distorsionada de la investigación
científica. Sin embargo, la distinción de Reichenbach es aún válida y útil.
A los dos contextos que menciona Reichenbach se agrega un tercero, el contexto de aplicación,
en el que se discuten las aplicaciones del conocimiento científico, utilidad, su beneficio o
perjuicio para la comunidad o la especie humanas. Se trata de un conjunto de cuestiones que
incluso tienen pertinencia para comprender los problemas propios de los contextos de
descubrimiento y de justificación. El uso crítico de una teoría, en tecnología o en otras
aplicaciones, tiene alguna conexión con los criterios para decidir si ella es adecuada o no desde
el punto de vista del conocimiento. En general, las discusiones epistemológicas (y en ciertos
casos también metodológicas) pueden llevarse a cabo en cualquiera de los tres contextos, lo
cual motiva el problema de analizar la eventual relación entre ellos. Daremos preferencia a las
cuestiones que atañen al contexto de justificación. Nuestra preopación principal será la de
indagar acerca de los elementos de juicio por los cuales una determinada teoría científica
merece ser considerada como conocimiento legítimo, de los criterios que permiten decidir por
una teoría en favor de otras y, en general, de justificar la racionalidad del cambio científico.
El origen de la distinción entre objetos y entidades empíricas, por una parte, y objetos y
entidades teóricas, por otra, se funda en lo siguiente: la ciencia no es un mero discurso, sino
que, debido a las propiedades semánticas del lenguaje ordinario y aun del lenguaje científico,
intenta ocuparse de objetos, de cosas, de entidades, de justificar nuestras creencias acerca de
ellos y de encontrar incluso regularidades (leyes naturales) que las involucran. Nuestro
conocimiento de algunos de estos objetos es directo, en el sentido de que no exige ninguna
mediatización de instrumentos o teorías para que podamos tener conocimiento de ellos. Se
ofrecen directamente a la experiencia y por tanto podrían denominarse provisoriamente
objetos directos. Un ejemplo característico, si al contemplar un instrumento que posee un dial
observamos que la aguja coincide con una marca de la escala, entonces el dial, la aguja, la
marca y la relación de coincidencia pueden considerarse como entidades directas, por cuanto
se ofrecen sin mediación a nuestra captación, a nuestro conocimiento.
Claro que no todo objeto del cual se ocupa la ciencia se halla en estas condiciones. Ni los
átomos, ni el inconsciente, ni la estructura del lenguaje ni los genes poseen esta cualidad. Para
acceder al conocimiento de estas entidades es necesario proceder indirectamente y justificar
nuestra creencia en ellas y en nuestro modo de conocerlas. Estamos tratando con objetos
indirectos. Esta distinción entre objetos directos e indirectos tendrá consecuencias tanto
epistemológicas como metodológicas, porque se comprende que la edificación y justificación
del conocimiento no serán análogas en uno u otro caso. De hecho, la captación de entidades
no es un fenómeno de nuestra conducta que se ofrezca a nuestro conocimiento sin el auxilio
de algunos dispositivos, entre los cuales el principal con que contamos es el lenguaje ordinario.
Los términos y vocabularios de éste nos permiten una primera conceptuación de la realidad.
La experiencia se nos ofrece como una red muy compleja de elementos, un continuo que hay
que dividir y articular para poder concebirlo y operar con él. Esto se hace con auxilio del
lenguaje y en general con todo nuestro aparato de pensamiento. Cuando hablamos de objetos
directos hay que entender que su captación acontece con el auxilio de un aparato semántico
sin el cual no siempre los objetos que captamos serían los mismos. Un esquimal trasplantado
de pronto a una ciudad e instalado en una casa moderna no percibiría como objeto directo la
biblioteca, como sí lo hacemos nosotros. Por tanto, hay cierto relativismo y un componente
cultural en lo que denominamos un objeto directo, pero la actividad científica se origina en una
sociedad, en un momento histórico, en un determinado contexto, y al hacerlo de esta manera
dispone de un marco lingüístico y conceptual determinado.
Supondremos que los objetos directos constituyen un conjunto potencialmente análogo para
todos los centros culturales que puedan plantearse problemas epistemológicos, y llamaremos
base empírica al conjunto de los objetos que potencialmente pueden ser conocidos
directamente. Los demás objetos, acerca de los cuales no negamos que podemos adquirir
conocimiento pero que exigen estrategias indirectas y mediatizadoras para su captación,
constituirán lo que llamaremos zona teórica de las disciplinas o de las teorías científicas.
Cuando un objeto, entidad o situación en la base empírica es conocida, suele decirse que
contamos con un dato. En otro sentido, la captación de un objeto directo puede también
denominarse una observación. Como señala el epistemólogo Ernest Hagel, hay observaciones
espontáneas que pueden interesar mucho al científico, pero que no han sido provocadas por
él, y que se ofrecen porque de pronto, quizás inesperadamente, los sucesos ocurren en la
realidad de cierta manera. Cuando aparece una nova en el cielo, lo directo es su aspecto
fulgurante; la atención se dirige hacia el fenómeno por su intrínseco interés, pero aquél no ha
sido provocado por nosotros. En otros casos los datos no han sido provocados pero ha habido
una búsqueda de ellos, y en aquellas disciplinas en las que hay un número superabundante de
datos es necesario realizar una serie de maniobras epistemológicas y metodológicas de control
y sistematización de acuerdo con ciertas normas que impone el método científico. Por ejemplo,
las estrellas visibles a ojo desnudo o a través de instrumentos, como para efectuar estudios
estadísticos. De cualquier manera, los datos constituyen en este caso parte de la base empírica.
Finalmente, cuando la observación puede ser provocada, y hablamos de experimento, la
situación en cuanto a control y sistematización se hace por cierto mucho mejor, pero éste no es
un requisito indispensable ni una condición necesaria para la aplicación del método científico.
Sea como fuere, observación espontánea, observación controlada y experimento son todos
aspectos de nuestro conocimiento de la base empírica. Algunos de estos conceptos pueden
extenderse también a la zona teórica.
Ciertos ejemplos pueden ilustrar lo que estamos diciendo a propósito de la base empírica y la
zona teórica. Consideremos el caso de la física. Sin duda, cuando analizamos los temas de los
que se ocupa un físico advertimos que se mencionan cosas tales como balanzas, el fiel de la
balanza, la aguja, el dial, y se habla de pesas, objetos cotidianos en reposo o movimiento,
etcétera, los que en determinadas condiciones corresponden sin duda a la base empírica. Pero
se habla también de campos eléctricos o de partículas elementales, entidades que no se
conocían hasta épocas muy recientes en la historia de la ciencia, es decir, hasta la aparición de
ciertas teorías científicas o de instrumentos apropiados. No cabe duda de que los campos
eléctricos y las partículas elementales no son observables, es decir accesibles a la inspección
directa, y por lo tanto corresponden a la zona teórica de la ciencia. Una situación totalmente
análoga se presenta en química: los tubos de ensayo, los mecheros o el papel de tornasol son
directamente observables y corresponderían a la base empírica, pero no ocurre lo mismo
cuando se habla de átomos, de valencias de pesos atómicos o de estructura atómicomolecular.
En el caso de la biología una distinción análoga es la que existe entre fenotipo y genotipo: en la
mayoría de los casos el fenotipo se refiere a una característica observable de los seres vivos
(plumaje de un pájaro, color de una fruta, textura de una semilla); pero el genotipo hace
referencia a los genes, a los alelos, a los cromosomas, y cuando hablamos de ellos sin
presuponer el auxilio de instrumentos estamos tratando con entidades de la zona teórica. En el
ámbito de la lingüística, la distinción que formula de Saussure entre la lengua y el habla
corresponde también a un enfoque semejante. La lengua es un aspecto teórico y conjeturado
del fenómeno lingüístico, en tanto que el habla, en relación con los fenómenos acústicos,
auditivos y la presencia de imágenes, se halla más directamente vinculada a la base empírica.
También en sociología podemos establecer la distinción. Las planillas con que la gente ha
respondido a una
encuesta serían sin duda elementos de la base empírica para la investigación que se ha
emprendido, pero hablar acerca de la anomia, el conflicto o el estado de violencia en el que se
encuentra una sociedad sería mencionar entidades de la zona teórica. En psicoanálisis,
incluimos en la base empírica a las actitudes corporales, a los gestos y a las expresiones
verbales, mientras que pertenecen a la zona teórica el superyó, el inconsciente o las fantasías.
¿Qué importancia tiene, realmente, la distinción entre objetos directos e indirectos, entre
observación directa y objeto inobservable? Desde el punto de vista epistemológico, por qué
creemos que una teoría es adecuada o inadecuada, mejor o peor que otra. Parecería que el
elemento de control es la concordancia o no de la teoría con observaciones de la base
empírica. Esta es una de sus funciones principales para el conocimiento. Pero la base empírica
se modifica a medida que transcurre la historia, debido al surgimiento de nuevos
procedimientos técnicos que nos permiten observar de distinta manera; por tanto, los
elementos de control para la ciencia se modifican consecuentemente y la historia de la base
empírica repercute también en la historia de las teorías científias. Otra cuestión es el distinto
grado de énfasis que se puede poner en los aspectos empíricos y teóricos de la ciencia. Desde
un punto de vista práctico o tecnológico, no cabe duda de que la base empírica es primordial y
la zona teórica circunstancial. Los problemas técnicos de la vida diaria están relacionados con la
base empírica, con los objetos que nos rodean y las situaciones cotidianas que ellos nos
presentan. Si algún interés depositamos en los objetos teóricos, es porque se relacionan con
teorías que, a su vez, nos permiten disponer de nuevos recursos tecnológicos para actuar y
resolver problemas cotidianos. Sin embargo, los grandes fenómenos que dan razón a las leyes
básicas explicativas de todo lo que ocurre en la realidad están ligados, sin duda, a objetos
teóricos tales como partículas elementales, campos, etcétera. En este sentido, el conocimiento
profundo se vincula con el aspecto teórico de la ciencia, y la observación resulta subsidiaria,
como elemento de control.
A si y sólo si B
A
por consiguiente: B
Efectividad
Repetibilidad
Este requisito para la observación científica afirma que los datos que importan a la ciencia
deben tener la posibilidad de ser repetidos. Un dato único, irrepetible, no inspira confianza,
porque puede estar perturbado o ser el fruto de una conjunción casual de circunstancias. Pero
si es repetible, y lo que se afirma a propósito del dato se afirma también en sus repeticiones,
tendremos una base confiable para creer que estamos en presencia de una regularidad, de una
ley. Sin embargo, ¿qué es lo que se repite? Puede ser útil en este punto recoger una idea de
Popper: su distinción entre acontecimiento y evento. Tanto un acontecimiento como un evento
se refieren a algo que sucede y no a objetos, pero nuestra concepción de la base empírica no
involucra solamente objetos sino también sucesos. Un determinado suceso tiene lugar y fecha.
Si en este momento arrojamos una moneda al suelo, el acontecimiento, el suceso, es la caída
de la moneda, aquí en Buenos Aires, en tal dirección, en tal habitación y a tal o cual hora. Es
evidente que si volvemos a arrojar la moneda, el lugar será el mismo, salvo que nos hayamos
trasladado, pero la fecha será otra. El primer acontecimiento no es idéntico al segundo y no
tiene ningún sentido hablar de la repetición de un acontecimiento a secas, porque un
acontecimiento no se repite, tiene lugar en su instante y lugar en el espacio-tiempo. La teoría
de la relatividad pone el énfasis justamente en esta idea de que la descripción del mundo se
haga sobre la base de sucesos que estén ubicados en el espacio y el tiempo, y la tendencia a
describir procesos como cadenas de tales acontecimientos parece bastante acertada, pero
ellos no son repetibles. Lo que ocurre es que hay acontecimientos que tienen cierta similitud y
otros que no la tienen: una moneda que cae no es similar a una explosión, al nacimiento de
Napoleón,
a la aparición de una nova o a la renuncia de un presidente. En este sentido, propone Popper,
las familias de sucesos semejantes en algún respecto se pueden llamar eventos. De acuerdo
con esta propuesta, un mismo acontecimiento puede formar parte de muy distintos tipos de
eventos, según el aspecto en que se ponga el énfasis. La renuncia de un presidente puede ser
un hecho revolucionario pero también un drama familiar. Un evento sí es repetible, pues es
una familia de acontecimientos de un mismo tipo. Si un evento es la caída de monedas, los
acontecimientos anteriores serían dos casos particulares del mismo. De acuerdo con esta
distinción, la recomendación de que sólo se tengan en cuenta circunstancias repetibles para
que los científicos las incorporen a su acervo de conocimiento debe expresarse con mayor
precisión. Lo que se quiere decir es que deben ser tomados en cuenta únicamente
acontecimientos que correspondan a eventos repetibles. De otro modo el acontecimiento no
tendrá interés científico.
Hay ciencias que cuentan con eventos repetibles, o por lo menos repetidos, como es el caso de
la astronomía. Una gran familia de ciencias, a la que pertenecerían la física, la química, la
biología y algunas otras, tendrían la posibilidad de formular teorías que proporcionen leyes,
porque la repetibilidad es lo que permite establecer correlaciones, pautas constantes de
acontecimientos, etcétera. Pero existen disciplinas donde esta circunstancia no ocurre, o bien
ocurre de manera muy parcial. Un ejemplo es la historia. ¿Hay aquí eventos interesantes
repetibles? Si bien se pueden caracterizar eventos tales como las revoluciones políticas,
constituidas por acontecimientos históricos, los acontecimientos de un mismo evento son tan
diferentes que finalmente lo que hay de común entre ellos es banal y muy poco interesante.
Hay diferencias tan considerables entre la revolución rusa, la revolución norteamericana y la
revolución que destronó a Domiciano en Roma en cuanto a sus características, que para lograr
alguna conclusión los eventos a considerar serían casi inocuos y de ellos apenas se podrían
obtener leyes generales de este tipo: "En toda revolución hay gente que se siente incómoda". A
un historiador le interesan los acontecimientos en tanto tales.
Hay que admitir que en ciertas disciplinas la preocupación principal es idiográfica, en el sentido
de que se refiere a acontecimientos irrepetibles que importan por sí mismos, que tienen un
interés intrínseco y no por ser el caso particular de una ley. Pongamos por caso: la batalla de
Waterloo. Sin embargo, detrás de este enfoque hay problemas de leyes generales subyacentes.
Esta creencia, en el caso de la historia, es compartida por autores tan diferentes como
Spengler, Marx y Toynbee. Muchas ciencias integrantes de este segundo conjunto, que no
alcanzan por el momento el nivel del interés por el evento y la ley, paulatinamente se
incorporarían al primer conjunto, al que pertenecen la física y la biología.
Intersubjetividad
Un tercer requisito que se suele exigir con bastante énfasis es el de intersubjetividad, según el
cual ningún dato puede provenir de un único captador del mismo. En principio debe ser posible
para todo dato haber sido observado por más de un observador. La objetividad de los datos
radica precisamente en su intersubjetividad, o sea en el hecho de que distintas personas lo
pueden registrar. Pero aquí hay dos dificultades. Una es de principio: ¿qué se está diciendo
exactamente con este requisito? La segunda radica en que algunas disciplinas, en particular el
psicoanálisis, tienen dificultades a este respecto, y de allí la batalla entre el conductismo y las
disciplinas psicológicas que aceptan el dato introspectivo como un dato de valor. El
psicoanálisis, en particular, cuando admite fenómenos como la contratransferencia, parecería
dotar a cada terapeuta de un instrumento por el cual, de acuerdo con lo que él experimenta
emocionalmente en un momento dado, puede inferir lo que le sucede al paciente. (Si el
paciente es odontólogo, por ejemplo, el terapeuta puede de pronto experimentar un fuerte
dolor de muelas.) Pero este dato es puramente introspectivo y subjetivo, y no cumple el
requisito de intersubjetividad. ¿Sería cuestión, entonces, de abandonar este tipo de datos y
quedarse solamente con aquellos que sí pueden ser recogidos por distintos observadores? Vale
la pena preguntarse si la intersubjetividad se exige para los acontecimientos o para los eventos.
En el primer caso la exigencia es muy fuerte: todas las teorías psicológicas que admiten datos
intersubjetivos quedarían directamente descartadas. Pero si la intersubjetividad se exige sólo
para los eventos, aunque cada dato por separado sea introspectivo, un conjunto amplio de
científicos bien puede haber experimentado datos correspondientes a un mismo tipo de
evento. En este sentido la contratransferencia constituiría un evento, una familia de
acontecimientos que muchas personas dicen haber experimentado y haber utilizado con fines
informativos terapéuticos. La intersubjetividad se manifestaría por la presencia de una gran
cantidad de testigos de tales acontecimientos. A modo de conclusión, no hay un único requisito
de intersubjetividad, sino dos. Uno, fuerte, exige que los acontecimientos sean
intersubjetivamente captables, condición que satisfacen en particular las ciencias "duras". El
segundo, débil, exige solamente la característica de intersubjetividad para los eventos, y ésta
sería la condición a ser satisfecha por ciertas disciplinas dentro del campo de las ciencias
humanas o sociales. Para que este último requisito en sentido débil sea aceptado deberíamos
agregar la exigencia de que tales datos sólo sean empleados para la inducción o sugestión de
teorías y leyes, en el contexto de descubrimiento, pero a su vez la puesta a prueba de las
teorías así obtenidas debería someterse, en el contexto de justificación, a requisitos de tipo
conductista, fuertes.
Controversias
La distinción entre objetos directos e indirectos no es aceptada por todos los epistemólogos.
Pero en realidad la disputa se halla relacionada no tanto con una distinción ontológica acerca
de objetos sino con la que corresponde en el plano lingüístico. Gira en torno a la cuestión de si
hay términos empíricos u observables y teóricos, nítidamente diferenciados según el tipo de
entidades a las cuales dichos términos hacen referencia. La crítica apunta a negar una
afirmación que hemos realizado anteriormente: la de que tomar un dato, desde el punto de
vista epistemológico, implica la no existencia de presupuestos teóricos. Esto es totalmente
imposible, se argumenta, pues no hay dato que no tenga contaminación teórica o presupuestos
tácitos y, por consiguiente, todo dato se obtiene por la mediación de teorías. Dicho de otro
modo: no habría dato independiente anterior a las teorías. La cuestión se vincula con el
problema de si existe o no una base empírica filosófica indubitable, porque allí comienza la
construcción por "capas de cebolla" de bases empíricas metodológicas sucesivamente
ampliadas. Es probable que, en un sentido práctico, toda vez que consideramos un objeto haya
alguna teoría presupuesta y oculta con auxilio de la cual lo conceptuamos. Pero, no es lo
mismo afirmar que para tomar un dato debamos presuponer alguna teoría, lo cual es muy
probable, que afirmar que dicha teoría ha de ser siempre una teoría científica.
Es verdad que en el lenguaje cotidiano hay muchos presupuestos teóricos. Pero no es tan claro
que en todo lo que tomamos con el auxilio del lenguaje ordinario haya, ocultas, teorías
científicas. El epistemólogo Thomas Kuhn, en su influyente libro La estructura de las
revoluciones científicas, de 1962, aduce que en el lenguaje cotidiano hay algo así como fósiles
de muchas teorías científicas, que en un principio se hallaban apartadas de él pero que poco a
poco, con el tiempo, se fueron incorporando. Se puede admitir que haya un contenido teórico
en el lenguaje ordinario y en nuestra manera de concebir la base empírica epistemológica,
pues ya hemos dicho que ésta se modifica a medida que la historia transcurre y la cultura
evoluciona. Pero ello no invalida nuestra pretensión, ligada a la epistemología, de discutir si es
posible fundamentar todas las teorías científicas. En este sentido, el control de las mismas se
realiza a través de elementos culturalizados por el lenguaje cotidiano, pero sometemos a
control la ciencia en la medida en que ésta puede explicar, hacer predicciones y dar cuenta de
las regularidades y fenómenos que en la vida cotidiana ya hemos captado. Cuando se
mencionan a la vez, como en el título de un célebre libro de Conant, la ciencia y el sentido
común, se quiere hacer notar la fuerte presencia de éste en la ciencia con el significado de que
la base empírica, que provoca los problemas, que controla, que obliga a construir explicaciones
y acerca de la cual queremos hacer predicciones, no está contaminada por teorías científicas
presupuestas.
En determinados momentos de la historia de la ciencia acontece que la comunidad humana en
general y la científica en particular dan como formando parte del acervo cultural a una serie de
teorías científicas, y entonces el problema que se presenta es el control de todo lo nuevo que
se ofrece a la luz de ese momento peculiar de la cultura. Aquí es la base empírica metodológica
la que se transformará en juez de las novedades. Pero en la controversia acerca de si es lícita o
no la diferencia entre base empírica y zona teórica, si el argumento es el llamado "de la carga
teórica" de toda observación, parece importante distinguir entre carga teórica en un sentido
absoluto ligado al lenguaje ordinario y carga teórica de tipo científico.
Fundadores y críticos: comienzo y fin de una hegemonía
Unidad 2
El empirismo de Hume
Los dos problemas centrales de la teoría del conocimiento son los problemas del significado y
la verdad, y el enfoque empirista de dichos problemas recibió su forma clásica en la obra de
David Hume. Triple distinción entre impresiones, ideas y lenguaje. Las impresiones son los
objetos inmediatos de conciencia de los que tenemos experiencia cuando percibimos o
hacemos introspección. Las ideas son los objetos de los que tenemos conciencia en todas las
actividades mentales diferentes de la percepción y la introspección, por ejemplo, siempre que
reflexionamos, recordamos, imaginamos, etc., y debemos distinguir dos clases de ideas: ideas
simples e ideas complejas. Las ideas simples son copias de impresiones que permanecen en la
mente después que ha ocurrido una impresión. Las ideas complejas son las ideas que crea la
imaginación combinando ideas simples. La imaginación puede reunir cualquier conjunto de
ideas simples para formar una idea compleja, pero no puede crear nuevas ideas simples: así
pues, el ámbito de las ideas que puedo tomar en consideración se encuentra limitado por el
ámbito de las impresiones de las que he tenido experiencia.
La tesis central de la postura logicista es formulada por Russell en el prefacio a Los principios de
la matemática: «Que toda matemática pura se ocupa de conceptos definibles en términos de
un número muy pequeño de conceptos lógicos fundamentales, y que todas sus proposiciones
son deducibles a partir de un número muy pequeño de principios lógicos fundamentales». A
fin de llevar a cabo su argumentación Whitehead y Russell desarrollan una nueva y poderosa
forma de lógica. El rasgo central de la lógica de los Principia Mathematica es que se trata de
una lógica extensional; en particular, en el caso de la lógica proposicional, se trata de una lógica
veritativo-funcional. Se establece una distinción entre proposiciones «elementales» o
«atómicas» y proposiciones «moleculares»; las proposiciones moleculares son construidas a
partir de proposiciones elementales por medio de operadores. Las proposiciones elementales
son o verdaderas o falsas, y los operadores proposicionales se definen de forma que el valor de
verdad de una proposición molecular esté determinado únicamente por los valores de verdad
de las proposiciones elementales que la constituyen. En la evaluación de las proposiciones
moleculares no juega ningún papel en absoluto el significado o contenido de las proposiciones
que las constituyen. Por ejemplo, la conjunción de dos proposiciones p y q es verdadera
siempre que tanto p como q sean verdaderas, y falsa en cualquier otro caso. Así pues, dentro
de la estructura de la lógica de los Principia no hay una diferencia significativa entre la
conjunción de dos proposiciones que se refieran al mismo asunto, como «El electrón e está en
un campo de gravitación» y «El electrón e está en un campo magnético», y la conjunción de
dos enunciados que no tengan ningún tema en común, como, por ejemplo, uno de los
enunciados anteriores y «George Washington nació el 22 de febrero». Este aspecto de la lógica
de los Principia ha tenido una significativa influencia en la obra de los empiristas lógicos, que
han adoptado la lógica de los Principia como su herramienta principal para el análisis de la
ciencia. El intento de construir una interpretación veritativo-funcional para todos los
operadores proposicionales se torna particularmente problemático en el importante caso de la
implicación. La exigencia de una lógica proposicional completamente veritativo-funcional
requiere que «p => q» tenga un valor de verdad para cada combinación de los valores de
verdad de p y q, incluyendo el caso en que el antecedente p es falso. Dentro del contexto de la
filosofía de la matemática, este problema puede ser tratado con bastante nitidez: La propiedad
esencial que exigimos de la implicación es que: «Lo que es implicado por una proposición
verdadera es verdadero». Es en virtud de dicha propiedad como la implicación da lugar a
pruebas. Pero esta propiedad no determina en modo alguno si algo, y si es así qué, es
implicado por una proposición falsa. Lo que determina es que, si p implica q, entonces no
puede darse el caso de que p sea verdadera y q sea falsa, esto es, tiene que darse el caso de
que o p es falsa o q es verdadera. La interpretación más conveniente de la implicación consiste
en decir, a la inversa, que si o p es falsa o q es verdadera, entonces «p implica q» debe ser
definida para que signifique: «O p es falsa o q es verdadera».
La definición de «p => q» como lógicamente equivalente a «-p v q» tiene el efecto de asignar el
valor de «verdadera» a cualquier implicación cuyo antecedente sea falso. Esto puede parecer
extraño, pero no crea en absoluto dificultades para el filósofo de la matemática, ya que en la
matemática sólo nos interesan las pruebas formales, y éstas tienen lugar basándose en
premisas que se suponen verdaderas. Como Whitehead y Russell indican en el pasaje arriba
citado, la propiedad esencial de la implicación para el matemático y el filósofo de la
matemática es que todo lo implicado por una proposición verdadera tiene que ser verdadero.
En su Introducción a la filosofía matemática, Russell insiste de nuevo en el mismo punto: «Para
que pueda ser válido inferir q de p, sólo es necesario que p sea verdadera y que la proposición
"no-p o q" sea verdadera. Siempre que éste sea el caso, es evidente que q tiene que ser
verdadera». Aun cuando esta noción de «implicación material» pueda ser completamente
adecuada para el análisis de la inferencia matemática, los empiristas lógicos han extendido el
uso del formalismo de los Principia mucho más allá de los límites de la matemática pura. Esto
es verdadero en particular del análisis efectuado en los Principia de las proposiciones
universales afirmativas, proposiciones de la forma «Todos los P son Q». El análisis simbólico de
dicha forma de proposición se basa en advertir que «Todos los P son Q» es lógicamente
equivalente a la forma hipotética «Si algo es P, entonces es Q». «Todos los P son Q» es
simbolizado como
«(x)(Px => Qx)», y este análisis se efectúa sobre la base de la noción de implicación material, así
que, aun cuando «(x)(Px => Qx)» no sea, en rigor, una expresión veritativo-funcional, las
propiedades de la implicación material han sido incorporadas en ella. Así también se
incorporan las propiedades de la implicación material en el análisis de leyes científicas como
«Todos los cuervos son negros», «Todos los electrones tienen carga negativa» o «Todas las
reacciones químicas entre un ácido y una base dan como resultado agua y una sal», dándose
por sentado que «(x)(Px => Qx)» es una formulación adecuada de dichas leyes.
Consideremos ahora la solución logicista al problema de la verdad matemática. El logicismo
sostiene que la matemática es lógica y que, por tanto, la matemática es verdadera en la medida
misma en que la lógica es verdadera. Desafortunadamente, como señaló el propio Russell, esto
no resuelve el problema de la verdad matemática, sino que únicamente lo retrotrae al
problema de la naturaleza de la verdad lógica. He aquí una recapitulación del asunto en su
Introducción a la filosofía matemática: Es evidente que la definición de «lógica» o
«matemática» hay que buscarla intentando dar una nueva definición de la vieja noción de
proposición «analítica>>. Aunque ya no podemos darnos por satisfechos con definir las
proposiciones lógicas como aquellas que se siguen de la ley de contradicción, podemos y
debemos aún admitir que son una clase de proposiciones completamente diferentes de las que
llegamos a conocer empíricamente. Todas ellas tienen la característica que hace un momento
hemos convenido en llamar <<tautología>>. Esta, combinada con el hecho de que pueden ser
expresadas enteramente en términos de variables y constantes lógicas (siendo una constante
lógica algo que permanece constante en una proposición aun cuando todos sus constituyentes
hayan cambiado), dará la definición de lógica o matemática pura (tautología).
En el Tractatus Logico-Philosophicus, Wittgenstein introdujo tablas de verdad y las usó como
base para formular una definición de <<tautología>>. Las tablas de verdad proporcionan un
método mecánico para calcular todos los posibles valores de verdad de una proposición
molecular. Las formas que son verdaderas para todos los valores de los argumentos, es la clase
que Wittgenstein llama «tautologías» e incluye todas las verdades lógicas y, para el logicista,
todas las verdades matemáticas. La tesis de que todas las verdades lógicas son tautologías es
claramente consistente con definiciones tradicionales de la verdad lógica, como, por ejemplo,
«Verdadero en todos los mundos posibles» o «Verdadero en virtud de la sola forma», así como
con las exigencias del empirismo. Las tautologías no dicen nada sobre el mundo, sino sólo
sobre nuestro uso de símbolos, de suerte que el empirista no debe tener ningún escrúpulo en
admitirlas como verdaderas a priori. Cuando se usan en conjunción con proposiciones
empíricas en el razonamiento lógico o matemático, las tautologías proporcionan un medio de
transformar
proposiciones empíricas en otras proposiciones empíricas sin cambiar su valor de verdad; de
esta propiedad de las tautologías deriva su utilidad para la ciencia.
Hay otro enfoque en la filosofía de la matemática que ha tenido un impacto semejante sobre
los empiristas modernos: el formalismo de Hilbert. Para el formalista, la matemática pura,
incluyendo la lógica, consta de cálculos no interpretados, de sistemas de axiomas que se
manipulan por medio de un conjunto de reglas formales o algoritmos. Como en el caso del
logicismo, para el formalista la matemática pura no dice nada sobre el mundo, pero, mientras
que el logicista sostiene que la matemática pura y la lógica son verdaderas, el formalista
sostiene que no son verdaderas ni falsas, sino meros juegos con símbolos, gobernados por
reglas. La matemática puede ser aplicada a problemas científicos dando interpretaciones
apropiadas a los símbolos, pero una vez hecho esto, nos ocupamos de matemática aplicada y la
cuestión de la aceptabilidad de un sistema de matemática aplicada para un área particular de
investigación científica se convierte en una cuestión empírica. Tanto para el formalista como
para el logicista, la lógica se interesa únicamente por la sintaxis, esto es, por relaciones
formales entre símbolos, y todos los argumentos han de consistir en la manipulación de
símbolos de acuerdo con reglas precisas. La identificación de la lógica con la sintaxis ha sido
uno de los rasgos principales de los estudios de la lógica de la ciencia de inspiración lógico-
empirista. El empirismo y la nueva lógica
simbólica fueron fusionados y desarrollados en una filosofía de la ciencia por el positivismo
lógico.
El término «positivismo», acuñado por Auguste Comte, se usa en general como nombre para
una forma de empirismo estricto: el positivista mantiene que sólo son legítimas las
pretensiones de conocimiento fundadas directamente sobre la experiencia. El moderno
positivismo lógico, en particular el positivismo del Círculo de Viena, es una forma de
positivismo que adopta la lógica simbólica de los Principia Mathematica como su principal
herramienta de análisis. Para el positivista lógico hay dos formas de investigación que producen
conocimiento: la investigación empírica, que es tarea de las diversas ciencias, y el análisis lógico
de la ciencia, que es tarea de la filosofía. La interpretación de Wittgenstein fue adoptada por el
Círculo de Viena. La doctrina central del positivismo lógico es la teoría verificacionista del
significado, cuya tesis es que una proposición contingente es significativa si y sólo si puede ser
verificada empíricamente, es decir si y sólo si hay un método empírico para decidir si es
verdadera o falsa; si no existe dicho método, es una pseudo-proposición carente de significado.
Para Hume, los elementos básicos de la experiencia son impresiones; para Wittgenstein, las
unidades básicas de la experiencia son hechos: no ya cualidades tales como «rojo», sino «que
hay rojo en un tiempo y lugar dados». La significación de esta distinción puede mostrarse más
claramente si se la expresa en la notación de los Principia. En este simbolismo, las impresiones
de Hume serían simbolizadas por un predicado como «P»; un hecho, por otra parte, es un
predicado individuado, y así se lo simbolizaría como «Pa». Para Wittgenstein, como para Hume,
la unidad fundamental del lenguaje significativo ha de corresponderse con la unidad
fundamental de la experiencia; mientras que para Hume la unidad fundamental de significado
es el término, que se refiere a una idea, para Wittgenstein es la proposición atómica, que se
refiere a un hecho atómico.
Para Hume, las impresiones son los existentes últimos, y para Wittgenstein juegan ese papel los
hechos atómicos. Así, Wittgenstein escribe: «El mundo es la totalidad de los hechos, no de las
cosas» y «el mundo se divide en hechos». Y, en tanto que para Hume cada impresión es distinta
de todas las demás y la única necesidad es la necesidad lógica de relaciones de ideas, así, para
Wittgenstein, «cada cosa puede acaecer o no acaecer y todo lo demás permanece igual» y «no
existe la necesidad de que una cosa deba acontecer porque otra haya acontecido. Hay sólo una
necesidad lógica». Asimismo, para Wittgenstein, las proposiciones atómicas, que constituyen el
estrato fundamental de nuestro conocimiento empírico son todas lógicamente distintas (como
para Hume las ideas simples son todas lógicamente distintas). Ninguna proposición atómica
puede ser deducida de otra proposición atómica, ni puede una proposición atómica
contradecir a otra. «La proposición más simple, la proposición elemental, afirma la existencia
de un hecho atómico». «Un signo característico de una proposición elemental es que ninguna
proposición elemental puede estar en contradicción con ella». Nuestro conocimiento empírico
consta entonces, en último término, de un conjunto de proposiciones elementales, dentro del
cual cualesquiera proposiciones pueden ser cambiadas, sin que eso tenga ningún efecto sobre
cualesquiera otras proposiciones.
Fundamental para el argumento de Wittgenstein es una distinción ulterior entre «hechos» («El
mundo se divide en hechos») y «estados de cosas» («Un estado de cosas es una combinación
de objetos (cosas)»). Un estado de cosas es un hecho lógicamente posible, un hecho es un
estado de cosas que da la casualidad de que acaece realmente. Cualquier proposición que
corresponda a un estado de cosas tiene significado, una proposición que corresponda a un
hecho es, además, verdadera, y una proposición y el estado de cosas al cual se refiere tienen la
misma forma lógica. Una proposición con significado es una figura lógica de un estado de cosas
y, en un lenguaje lógicamente correcto, toda combinación de palabras sin significado, toda
pseudo-proposición, violará las reglas sintácticas del lenguaje. Ningún lenguaje natural
existente satisface esas condiciones. Una de las preocupaciones centrales del positivista lógico
es la construcción de dicho lenguaje lógicamente correcto, y no deberá sorprendernos que el
formalismo lógico de los Principia Mathematica se adopte como base para la construcción de
tal lenguaje.
Podemos volver ahora a la teoría verificacionista del significado y aclarar qué se entiende por la
noción estrictamente positivista de verificación. Para hacerlo dividiremos las proposiciones a
considerar en cuatro clases: en primer lugar, hay proposiciones puramente formales
tautologías y contradicciones. Poseen significado y determinamos su valor de verdad
examinando su forma. En segundo lugar, hay proposiciones atómicas. También poseen
significado, y determinamos su valor de verdad observando si se conforman o no a los hechos.
Tercero, hay proposiciones moleculares. Estas son funciones veritativas de las proposiciones
atómicas, y su valor de verdad se determina determinando primero los valores de verdad de las
proposiciones atómicas constituyentes y aplicándoles luego las definiciones de las constantes
lógicas. Por último, hay otras definiciones de palabras que no caen dentro de ninguna de las
clases arriba mencionadas. Son pseudo-proposiciones, meras combinaciones de sonidos sin
significado o de signos sin contenido cognitivo. Por tanto, el valor de verdad de cualquier
proposición con significado puede ser determinado de una vez para siempre únicamente por
medio de la observación y de la lógica.
Empirismo lógico
Como mejor puede ser entendido el empirismo lógico es considerándole como una versión
más moderada del positivismo lógico. La dificultad central del positivismo lógico como filosofía
de la ciencia estriba en que las leyes científicas que son formuladas como proposiciones
universales no pueden ser concluyentemente verificadas por conjunto finito alguno de
enunciados de observación. La mayor parte de los positivistas eligieron renunciar a la estricta
teoría verificacionista del significado y reemplazarla por el requerimiento de que una
proposición con significado debe ser susceptible de ser contrastada por referencia a la
observación y al experimento. Los resultados de estas contrastaciones no necesitan ser
concluyentes, pero deben proporcionar el solo fundamento para determinar la verdad o
falsedad de las proposiciones científicas. Podemos identificar a los iniciadores del empirismo
lógico con esta liberalización de la teoría del significado del positivismo lógico; Testability and
Meaning, de Rudolf Carnap, puede ser razonablemente considerado como el documento
fundacional del empirismo lógico. Carnap reconoce la imposibilidad de verificar
concluyentemente cualquier proposición científica. Propone reemplazar la noción de
verificación por la noción de «confirmación gradualmente creciente», y toma como
fundamental la noción de «predicado observable», definiendo «oración confirmable» en
términos de dicha noción. El efecto de este último paso es un rechazo de la tesis positivista de
que la oración es la unidad fundamental de significado y un retorno al viejo interés de Hume
por el significado de los términos. Así pues, dos de los problemas centrales de la filosofía
lógico-empirista de la ciencia son el análisis de la relación de confirmación que se da entre una
ley científica y los enunciados de observación que la confirman o desconfirman, y el análisis de
cómo cobran su significado los términos científicos.
La confirmación
El problema de la confirmación puede ser considerado como una cuestión cuantitativa o como
una cuestión cualitativa, sin que ello quiera decir que ambos puntos de vista sean excluyentes.
Una teoría cuantitativa de la confirmación intenta asignar un grado de confirmación a una
hipótesis sobre la base de una evidencia observacional, y una teoría cualitativa se ocupa de
cuál es la relación entre una hipótesis y la experiencia observacional que la confirma. Esta
última cuestión es lógicamente anterior a la primera, pues, si no fuésemos capaces de
reconocer qué instancias están en una relación de conformidad o disconformidad con una
hipótesis, mal podríamos cuantificar esa relación.
Neurath, O., Carnap, R., Hahn, O. – La concepción científica del mundo: el Círculo de Viena
La concepción científica del mundo tiene como objetivo la ciencia unificada. El esfuerzo es
aunar y armonizar los logros de los investigadores individuales en los distintos ámbitos de la
ciencia. De esa aspiración se sigue el énfasis en el trabajo colectivo; de allí también la
acentuación de lo aprehensible intersubjetivamente; de allí surge la búsqueda de un sistema
de fórmulas neutral, de un simbolismo liberado de la escoria de los lenguajes históricamente
dados; y de allí también, la búsqueda de un sistema total de conceptos. Se persiguen la
limpieza y la claridad, rechazando las distancias oscuras y las profundidades inescrutables. En la
ciencia no hay “‘profundidades”, hay superficie en todas partes: todo lo experimentable forma
una red complicada no siempre aprehensible en su totalidad, sino que a menudo sólo
comprensible por partes. Todo es accesible al hombre y el hombre es la medida de todas las
cosas. Aquí se muestra afinidad con los Sofistas no con los Platónicos, con los Epicúreos no con
los Pitagóricos, con todos aquellos que aceptan el ser terrenal y el aquí y el ahora. Para la
concepción científica del mundo no hay enigmas insolubles. La clarificación de los problemas
filosóficos tradicionales nos conduce, en parte, a desenmascararlos como pseudo-problemas y,
en parte, a transformarlos en problemas empíricos y de allí a someterlos al juicio de la ciencia
de la experiencia. En esta clarificación de problemas y enunciados consiste la tarea del trabajo
filosófico y no en el planteamiento de enunciados “filosóficos” propios. El método es el del
análisis lógico; de él dice Russell: “se originó lentamente en conexión con las investigaciones
críticas de los matemáticos. Según mi opinión radica aquí un progreso similar al que produjera
Galileo en la física: resultados individuales comprobables sustituyen a afirmaciones
incomprobables sobre la totalidad, susceptibles de ser
obtenidas sólo mediante la fuerza de la imaginación”.
Este método del análisis lógico es lo que distingue a los nuevos empirismos y positivismos de
los anteriores, que estaban más orientados biológico-psicológicamente. Si alguien afirma “no
hay un Dios”, “el fundamento primario del mundo es lo inconsciente”, “hay una entelequia
como principio rector en el organismo vivo”, no le decimos “lo que Ud. dice es falso”, sino que
le preguntamos: “¿qué quieres decir con tus enunciados?”. Y entonces se muestra que hay una
demarcación precisa entre dos tipos de enunciados. A uno de estos tipos pertenecen los
enunciados que son hechos por las ciencias empíricas, su sentido se determina mediante el
análisis lógico, más precisamente: mediante una reducción a los enunciados más simples sobre
lo dado empíricamente. Los otros enunciados, a los cuales pertenecen aquellos mencionados
anteriormente, se revelan a sí mismos como completamente vacíos de significado si uno los
toma de la manera como los piensa el metafísico. Por supuesto que se puede a menudo
reinterpretarlos como enunciados empíricos, pero en ese caso ellos pierden el contenido
emotivo que es generalmente esencial para el metafísico. El metafísico y el teólogo creen,
incomprendiéndose a sí mismos, afirmar algo con sus oraciones, representar un estado de
cosas. Sin embargo, el análisis muestra que estas oraciones no dicen nada, sino que sólo son
expresión de cierto sentimiento sobre la vida. La expresión de tal sentimiento seguramente
puede ser una tarea importante en la vida. Pero el medio adecuado de expresión para ello es el
arte, por ejemplo, la lírica o la música. Si en lugar de ello se escoge la apariencia lingüística de
una teoría,
se corre un peligro: se simula un contenido teórico donde no radica ninguno. Si un metafísico o
un teólogo desea retener el ropaje habitual del lenguaje, entonces él mismo debe darse cuenta
y reconocer claramente que no proporciona ninguna representación, sino una expresión, no
proporciona teoría ni comunica un conocimiento, sino poesía o mito. Si un místico afirma tener
experiencias que están sobre o más allá de todos los conceptos, esto no se lo puede discutir.
Pero él no puede hablar sobre ello; pues hablar significa capturar en conceptos, reducir a
componentes de hechos científicamente clasificables. De parte de la concepción científica del
mundo se rechaza la filosofía metafísica. ¿Cómo, sin embargo, se explican los extravíos de la
metafísica? Esta pregunta puede plantearse desde varios puntos de vista, referidos a la
psicología, la sociología, la lógica. En las teorías metafísicas, e incluso en los planteamientos
mismos de las preguntas, se dan dos errores lógicos básicos: una vinculación demasiado
estrecha con la forma de los lenguajes tradicionales y una confusión sobre el rendimiento
lógico del pensamiento. El lenguaje ordinario, por ejemplo, utiliza el mismo tipo de palabra, el
sustantivo, tanto para cosas (“manzana”) como para propiedades (“dureza”), relaciones
(“amistad”) y procesos (“‘sueño”), a través de lo cual conduce erróneamente a una concepción
“cosista” de los conceptos funcionales (hipóstasis, sustancialización). Se pueden proporcionar
innumerables ejemplos similares de extravíos mediante el lenguaje que han sido igualmente
fatales para la filosofía. El segundo error básico de la metafísica consiste en la concepción de
que el pensar puede llevarnos a conocimientos por sí mismo sin utilización de algún material
de la experiencia, o bien al menos puede llegar a nuevos contenidos a partir de un estado de
cosas dado. Pero la investigación lógica lleva al resultado de que toda inferencia no consiste en
ninguna otra cosa que el paso de unas oraciones a otras, que no contienen nada que no haya
estado ya en aquéllas. No es por lo tanto posible desarrollar una metafísica a partir del pensar
puro. De esta manera, a través del análisis lógico, se supera no sólo a la metafísica en el sentido
propio, clásico del término, en especial a la metafísica escolástica y a la de los sistemas del
idealismo alemán, sino también a la metafísica escondida del apriorismo kantiano y moderno.
La concepción científica del mundo no reconoce ningún conocimiento incondicionalmente
válido derivado de la razón pura ni ningún “juicio sintético a priori” como los que se encuentran
en la base de la epistemología kantiana y aún más de toda ontología y metafísica pre y post-
kantiana. Precisamente en el rechazo de la posibilidad de conocimiento sintético a priori
consiste la tesis básica del empirismo moderno. La concepción científica del mundo sólo
reconoce oraciones de la experiencia sobre objetos de todo tipo, y oraciones analíticas de la
lógica y de la matemática. Los partidarios de la concepción científica del mundo están de
acuerdo en el rechazo de la metafísica manifiesta o de aquella escondida del apriorismo. Pero
más allá de esto, el Círculo de Viena sostiene la concepción de que todos los enunciados del
realismo (crítico) y del idealismo sobre la realidad o irrealidad del mundo exterior y de las
mentes ajenas son de carácter metafísico, pues ellos están sujetos a las mismas objeciones que
los enunciados de la antigua metafísica: no tienen sentido porque no son verificables, no se
atienen a las cosas. Algo es “real” en la medida en que se incorpora a la estructura total de la
experiencia.
La intuición, que es especialmente enfatizada por los metafísicos como fuente de
conocimiento, no es rechazada como tal por la concepción científica del mundo. Sin embargo,
se aspira a, y exige de, todo conocimiento intuitivo, una posterior justificación racional, paso a
paso. Al que busca le están permitidos todos los medios; lo encontrado, sin embargo, debe
resistir la contrastación. Se rechaza la concepción que ve en la intuición un tipo de
conocimiento de valor más elevado y profundo, que puede conducirnos más allá de los
contenidos de la experiencia sensible y que no debe estar unido mediante fuertes cadenas al
pensamiento conceptual. Hemos caracterizado la concepción científica del mundo en lo
fundamental mediante dos rasgos.
Primero, es empirista y positivista: hay sólo conocimiento de la experiencia que se basa en lo
dado inmediatamente. Con esto se establece la demarcación del contenido científico legítimo.
Segundo, la concepción científica del mundo se distingue por la aplicación de un método
determinado, a saber, el del análisis lógico. La aspiración del trabajo científico radica en
alcanzar el objetivo de la ciencia unificada por medio de la aplicación de ese análisis lógico al
material empírico. Debido a que el significado de todo enunciado científico debe ser
establecido por la reducción a un enunciado sobre lo dado, de igual modo, el significado de
todo concepto, sin importar a qué rama de la ciencia pertenezca, debe ser determinado por
una reducción paso a paso a otros conceptos, hasta llegar a los conceptos de nivel más bajo
que se refieren a lo dado. Si tal análisis fuera llevado a cabo para todos los conceptos, serían de
este modo ordenados en un sistema de reducción, un “‘sistema de constitución”. Las
investigaciones orientadas al objetivo de tal sistema de constitución, la “teoría de la
constitución”, forman, de este modo, el marco en el cual es aplicado el análisis lógico por la
concepción científica del mundo. La realización de tales investigaciones muestra muy pronto
que la lógica aristotélico-escolástica es completamente insuficiente para esa meta. Recién en la
moderna lógica simbólica (“logística”) se logran obtener la precisión requerida de las
definiciones de conceptos y enunciados, y formalizar el proceso de inferencia intuitivo del
pensamiento ordinario, esto es, ponerlo en una forma rigurosa, controlada automáticamente
mediante el mecanismo de signos. Las investigaciones en la teoría de la constitución muestran
que los conceptos de las experiencias y
cualidades de la psiquis propia pertenecen a los estratos más bajos del sistema de constitución;
sobre ellos se depositan los objetos físicos; a partir de éstos se constituyen las mentes ajenas y
por último los objetos de las ciencias sociales. Con la demostración y el señalamiento de la
forma del sistema total de los conceptos, se reconoce al mismo tiempo la referencia de todos
los enunciados a lo dado y, con ello, la forma de construcción de la ciencia unificada.
En la descripción científica sólo puede ingresar la estructura (forma de orden) de los objetos,
no su “esencia”. Lo que une a los hombres en el lenguaje son fórmulas de estructura; en ellas
se representa, por sí mismo, el contenido del conocimiento que es común a los hombres. Las
cualidades experimentadas subjetivamente –lo rojo, el placer– son, como tales, sólo vivencias,
no conocimiento; en la óptica física sólo ingresa lo que es básicamente comprensible también
para el ciego.
Fundamentos de la aritmética
En los escritos y discusiones del Círculo de Viena se tratan muchos problemas diferentes que
surgen de las distintas ramas de la ciencia. Los problemas de fundamentos de la aritmética han
llegado a adquirir especial importancia histórica para el desarrollo de la concepción científica
del mundo, ya que son los que han dado impulso al desarrollo de una nueva lógica. Después
del desarrollo extraordinariamente fructífero de la matemática en los siglos XVIII y XIX, durante
los cuales se prestó más atención a la riqueza de nuevos resultados que a una cuidadosa
revisión de los fundamentos conceptuales, esta revisión se mostró inevitable, si la matemática
no quería perder la siempre celebrada seguridad de su estructura. Esta revisión llegó aún a ser
más urgente cuando aparecieron ciertas contradicciones. Se debió reconocer pronto que no se
trataba solamente de algunas dificultades en un ámbito especial de la matemática, sino de
contradicciones lógicas generales, “antinomias”, que indicaban errores esenciales en los
fundamentos de la lógica tradicional. La tarea de eliminar estas contradicciones dio un impulso
especialmente fuerte al desarrollo ulterior de la lógica. Aquí los esfuerzos en pos de una
clarificación del concepto de número se encontraron con aquellos a favor de una reforma
interna de la lógica. Desde Leibniz y Lambert se había mantenido vivo el pensamiento de
dominar la realidad mediante una mayor precisión de los conceptos y de los procedimientos de
inferencia y de alcanzar esta precisión por medio de un simbolismo construido según el modelo
de la matemática. Sobre la base de estos esfuerzos preparatorios Whitehead y Russell (1910)
pudieron establecer un sistema coherente de lógica en forma simbólica (logística), que no sólo
evitaba las contradicciones de la lógica antigua, sino que también las superaba en riqueza y
aplicabilidad práctica. A partir de este sistema lógico derivaron los conceptos de la aritmética y
del análisis, dando de ese modo a la matemática un fundamento seguro en la lógica. Sin
embargo, ciertas dificultades se mantuvieron en este intento de superar la crisis de
fundamentos de la aritmética que hasta hoy todavía no se ha encontrado una solución
satisfactoria definitiva. En la actualidad tres posiciones se oponen en este ámbito: junto al
“logicismo” de Russell y Whitehead está el “formalismo” de Hilbert, que concibe a la aritmética
como un juego de fórmulas con reglas determinadas, y el “intuicionismo” de Brouwer, según el
cual los conocimientos aritméticos se basan en una intuición no ulteriormente reducible de la
dualidad y la unidad. Los debates entre estas tres posiciones se siguen con el mayor interés en
el Círculo de Viena. Algunos tienen la opinión de que estas tres posiciones no se encuentran
tan alejadas como parece. Ellos suponen en definitiva que rasgos esenciales de las tres se
acercarán más en el curso del desarrollo futuro y, probablemente usando las enormemente
impactantes ideas de Wittgenstein, estarán unidas en la solución final. La concepción del
carácter tautológico de la matemática, que está basada en las investigaciones de Russell y
Wittgenstein, es sostenida también por el Círculo de Viena. Debe destacarse que esta
concepción se opone no sólo al apriorismo e intuicionismo, sino también al empirismo más
antiguo (por ejemplo, el de Mill), que quería derivar la matemática y la lógica de una manera
inductiva-experimental.
Relacionadas con los problemas de la aritmética y la lógica se encuentran también
investigaciones con respecto a la naturaleza del método axiomático en general (conceptos de
completitud, independencia, monomorfismo, no-ambigüedad, etc.), así como también sobre el
establecimiento de sistemas de axiomas para determinados ámbitos matemáticos.
Fundamentos de la física
Originalmente el interés más fuerte del Círculo de Viena fue de los problemas del método de la
ciencia de la realidad. Inspirado por ideas de Mach, Poincaré y Duhem, se discutieron los
problemas del dominio de la realidad a través de sistemas científicos, especialmente por medio
de sistemas de hipótesis y de axiomas. Tal sistema de axiomas adquiere un significado para la
realidad sólo mediante el añadido de definiciones adicionales, a saber, las “definiciones
coordinativas”, a través de las cuales se establece qué objetos de la realidad deberían ser
considerados como miembros del sistema de axiomas. El desarrollo de la ciencia empírica que
pretende representar la realidad con una red de conceptos y juicios que sea lo más uniforme y
simple posible, puede ahora preceder, como lo muestra la historia, de dos maneras. Los
cambios requeridos por nuevas experiencias pueden hacerse ya sea en los axiomas o en las
definiciones
coordinativas. Que las investigaciones hasta ahora hayan sido fructíferas casi exclusivamente
para la física, puede entenderse por el estadio actual del desarrollo histórico de la ciencia, pues
la física está bastante más adelantada que otras ramas de la ciencia en relación con la precisión
y refinamiento en la formación de conceptos. El análisis epistemológico de los conceptos
fundamentales de la ciencia natural ha liberado a estos conceptos cada vez más de elementos
metafísicos que estaban estrechamente vinculados a ellos desde tiempos remotos. En
particular a través de Helmholtz, Mach, Einstein y otros es que han sido purificados los
conceptos de: espacio, tiempo, sustancia, causalidad y probabilidad. Las doctrinas del espacio
absoluto y del tiempo absoluto han sido superadas por la teoría de la relatividad; espacio y
tiempo no son más receptáculos absolutos, sino sólo ordenadores de los procesos elementales.
La sustancia material ha sido disuelta por la teoría atómica y la teoría de campos. La causalidad
ha sido despojada del carácter antropomórfico de “‘influencia” o “conexión necesaria” y se ha
reducido
a una relación entre condiciones, a una coordinación funcional. Además, en lugar de algunas
leyes de la naturaleza sostenidas estrictamente, han aparecido leyes estadísticas e incluso se
extiende en conexión con la teoría cuántica la duda de la aplicabilidad del concepto de
legalidad causal estricta a los fenómenos de las más pequeñas regiones espaciotemporales. El
concepto de probabilidad es reducido al concepto empíricamente aprehensible de frecuencia
relativa. Por medio de la aplicación del método axiomático a los problemas nombrados, se
separan por todas partes los componentes empíricos de la ciencia de los meramente
convencionales, el contenido de los enunciados de la definición. No queda más lugar para un
juicio sintético a priori. Que el conocimiento del mundo es posible no se basa en que la razón
humana imponga una forma al material, sino en que el material está ordenado de una manera
determinada. Sobre el tipo y el grado de ese orden no se pueden saber nada de antemano.
Sólo la investigación progresiva de la ciencia de la experiencia nos puede enseñar en qué grado
el mundo es conforme a leyes. El método de la inducción, la inferencia del ayer al mañana, del
aquí al allí, es, por supuesto, sólo válido si existe una legalidad. Pero este método no descansa
en alguna presuposición a priori de esta legalidad. Puede ser aplicado en todos los casos en
que conduce a resultados fructíferos, esté suficiente o insuficientemente fundamentado;
certeza no otorga nunca. Sin embargo, la reflexión epistemológica exige que a una inferencia
inductiva se le debe dar significación sólo en
la medida en que ésta puede ser contrastada empíricamente. La concepción científica del
mundo no condenará el éxito de un trabajo de investigación por el solo hecho de haber sido
obtenido por medios que son inadecuados, lógicamente poco claros o insuficientemente
fundados empíricamente, pero se esforzará y exigirá siempre la contrastación con medios
auxiliares clarificados, a saber, la reducción mediata o inmediata a lo vivenciado.
Fundamentos de la geometría
A través del desarrollo la geometría física llegó a separarse cada vez más de la geometría
matemática pura. Esta última se formalizó gradualmente cada vez más por medio del
desarrollo ulterior del análisis lógico. Primero fue aritmetizada, esto es, interpretada como
teoría de un determinado sistema de números. Luego fue axiomatizada, esto es, representada
por medio de un sistema de axiomas que concibe los elementos geométricos (puntos, etc.)
como objetos indeterminados, y que fija únicamente sus relaciones mutuas. Y, finalmente, la
geometría fue logizada, a saber, representada como una teoría de determinadas estructuras
relacionales. De este modo la geometría se convirtió en el ámbito más importante de
aplicación del método axiomático y de la teoría general de las relaciones. De esta manera, ella
dio el impulso más fuerte al desarrollo de estos dos métodos, los que entonces llegaron a ser
tan significativos para el desarrollo de la lógica misma y con ello, nuevamente y en general,
para la concepción científica del mundo. Las relaciones entre la geometría matemática y la
geometría física condujeron naturalmente al problema de la aplicación de los sistemas de
axiomas a la realidad que jugó un gran papel en las investigaciones más generales sobre los
fundamentos de la física.
Retrospectiva y prospectiva
Toda ciencia tiene como objetivo el conocimiento “intersubjetivo”, esto es, válido para todos
los sujetos. El sistema de constitución, sin embargo, puede utilizar como base sólo “mis”
vivencias. La realización muestra que aquel objetivo de la intersubjetividad se alcanza, a pesar
de esta base
restringida al yo (“solipsismo metódico”). A partir de las relaciones entre mis experiencias
vivencias se constituyen primero las cualidades de sensaciones y los otros objetos “de la psique
propia”. A partir de ellos se pueden constituir los objetos físicos, puesto que todo el
conocimiento de lo físico se retrotrae a percepciones. A partir de los objetos físicos son
constituibles los “de la psique ajena”; esta oración frecuentemente cuestionada se sigue del
hecho de que las características para el discernimiento de cualquier objeto de la psique ajena
radica siempre en lo físico.
El concepto de realidad, como aparece (positiva o negativamente) en las tesis del realismo, del
idealismo y del fenomenalismo, no puede ser constituido; estas tesis no son así retraducibles a
enunciados sobre lo dado y por ello no tienen ningún sentido. Lo mismo sucede con todas las
tesis metafísicas que traspasan lo dado. No hay preguntas fundamentalmente incontestables.
Pues cada pregunta puede ser traducida a una pregunta sobre las determinaciones
inmedatamente dadas de las vivencias mediante reducción de los conceptos que ocurren en
ella, conforme con su posición en el sistema de constitución. La aceptación de cuestiones
irresolubles y el planteo de tesis metafísicas no reducibles a lo dado suelen presentar para su
justificación que ya también la ciencia de experiencia requiere traspasar el campo de lo dado
(ejemplos: electrones, la psique ajena y otros). Esta objeción se refuta mediante la
demostración aportada por la teoría de la constitución de la posibilidad de un sistema de
constitución que sólo se basa en lo dado y que sí lleva a todo concepto de la ciencia.
Un enunciado es significativo si y sólo si se atiene a las cosas, esto es, si son pensables
vivencias mediante las cuales los enunciados se confirmaran o refutaran. Las tesis del realismo
y del idealismo de la realidad o irrealidad, respectivamente, del mundo exterior (o de la psique
ajena) no se atienen a las cosas, carecen así de sentido.
Tampoco las ciencias del espíritu poseen en la “comprensión” una fundamentación específica
del conocimiento. Pues la intuición no constituye un fundamento de validez independiente,
debido a que está condicionada subjetivamente y no posibilita ninguna decisión para
resultados
contradictorios. Puede cumplir sólo una función heurística y debe ser verificada recién a través
de una demostración lógica.
Problemas del pensamiento. El conocimiento aspira a una conexión abarcativa. Esta conexión
es deductiva, lógica. La inferencia estricta, indubitable, es siempre analítica: sólo
transformación de lo ya sabido, no ganancia de nuevo contenido. Los principios de la lógica son
sólo reglas de la univocidad de la descripción y de la consecuencia interna; no tienen nada que
ver con el mundo. Ellas son más bien a priori (independientes de la experiencia), pero analíticas
(tautológicas). Criterio de verdad: no la evidencia, sino la verificación, esto es, la comparación
del juicio con el estado de cosas.
El motivo más puro para la investigación física es el deseo de dar con la pista del orden oculto
de la naturaleza. El desarrollo de las teorías sigue el camino de una constante ampliación; las
concepciones aparentemente nuevas volcadas dejan intacto lo fundamentado de las viejas
teorías. – A pesar de que el camino que lleva de la experiencia a la teoría no es lógicamente
unívoco, siempre hay sin embargo una teoría que es tan superior a las otras a través de su
simplicidad, que su elección es prácticamente forzosa.
Neurath, O. – El seudo-racionalismo de la falsación
Introducción
De acuerdo con la interpretación histórica dominante la filosofía del empirismo lógico habría
quedado superada por los enfoques post-positivistas desarrollados a partir de la década de los
sesenta y, más concretamente, desde la publicación de La estructura de las revoluciones
científicas de Thomas Kuhn (1962). En esa obra concluirían aportaciones precedentes de
orientaciones y perspectivas disciplinares diversas, que habrían servido para fijar la roca para
construir enfoques sobre la ciencia enteramente novedosos. Común a ellos serían algunos de
los atributos que Rorty ha atribuido a la filosofía del futuro: el tratamiento holista,
antifundacionista y pragmatista del conocimiento y del significado, el abandono de las reglas
que nos indican cómo puede lograrse el acuerdo racional en los aspectos bajo discusión y su
sustitución por el estudio de las prácticas adoptadas por los científicos en el marco de
situaciones históricas precisas (Rorty, 1979). Los empiristas lógicos como Carnap o Neurath
pertenecen a la lista de ilusos “guardianes de la racionalidad” que constriñen a ésta bajo
algunos
principios dogmáticos como los de la dicotomía analítico-sintético o el principio verificacionista,
reducen todo el conocimiento a una base de percepciones sensibles, y tienen como resultado
una concepción radicalmente ahistórica de la racionalidad.
Algunos estudios recientes han mostrado ya convincentemente, sin embargo, que sin la teoría
de la ciencia de Neurath –junto a otras contribuciones también necesarias como la del
Wittgenstein de la década de 1930– no habría sido quizá posible un enfoque histórico de la
ciencia como los de Hanson, Feyerabend o Kuhn. Más aún, la teoría de la ciencia de Neurath
ofrece una nueva concepción de la justificación, no reducida a una relación entre ideas –o
términos– y objetos, sino elaborada en un marco de determinadas prácticas (sociales) de
investigación. A su juicio, la complejidad de la justificación no puede reducirse a puras
constricciones de base sensorial, fenoménica o cualesquiera otras. Los enfoques que procuren
regular la práctica científica concreta sobre una metodología de este tipo, por diverso que
pueda ser éste, incurren en una pretensión de naturaleza pseudorracionalista. El arquetipo de
pseudorracionalismo para Neurath es la metodología falsacionista de Popper. El análisis de su
crítica en el artículo “Pseudorracionalismo de la falsación” (Neurath, 1935) permite observar
una teoría de la ciencia de naturaleza argumentativa, que desde una perspectiva singular y
novedosa entra en la discusión de muchas tesis de buena parte de la filosofía actual de la
ciencia: la carga teórica de los datos, la distinción teórico/observacional como interna a la
teoría, la naturaleza metafórica e imprecisa del lenguaje, el carácter coherentista del
significado, etc.
El positivismo lógico es interpretado como poco más que un enfoque a superar; un enfoque
verificacionista, formal, rígido, idealizado y ahistórico que habría sido definitivamente rebasado
por el enfoque holista de Quine, por un lado, y por las perspectivas históricas y sociológicas de
Hanson, Feyerabend y Kuhn, por otro.
Hacking relataba los aspectos esenciales de la imagen de la ciencia en el positivismo lógico:
1. Realismo. La ciencia pretende descubrir todo lo posible sobre un mundo real único. La
verdad sobre el mundo es independiente de nuestras creencias y existe una
descripción del estado de cosas de cada parte del mundo que es objetivamente la
mejor.
2. Demarcación. Existe una distinción nítida entre la ciencia y otros tipos de creencias.
3. La ciencia es acumulativa. En general, la ciencia se construye sobre lo ya conocido
precedentemente, por eso decimos que la teoría de Einstein es una generalización de
la de Newton –o ésta una aproximación a aquélla–.
4. Distinción entre observación y teoría. Los enunciados de una teoría se pueden
distinguir suficientemente entre los relativos a la observación y los que expresan
proposiciones teóricas.
5. Fundamentos. Las observaciones y los experimentos proveen los fundamentos para la
justificación de las unidades epistémicas.
6. Las teorías son sistemas deductivos y se controlan deduciendo enunciados de
observación de sus postulados teóricos.
7. Los conceptos científicos son precisos y su significado es fijo.
8. Los problemas de la ciencia se sitúan bien en el denominado contexto de
descubrimiento o bien en el contexto de justificación.
9. Unidad de la ciencia. Debería existir una única ciencia correspondiente al único mundo
real. La unidad de la ciencia puede realizarse mediante la reducibilidad de las ciencias
menos profundas a las más profundas.
Pero, además, la metodología falsacionista provee una metarregla que decide sobre la validez
de las demás reglas: una regla suprema, que sirve a modo de norma para las decisiones que
hayan de tomarse sobre las demás reglas, y que –por tanto– es una regla de tipo más elevado:
es la que dice que las demás reglas del procedimiento científico han de ser tales que no
protejan a ningún enunciado de la falsación.
Nuestra teoría de la ciencia debe ofrecer, según Neurath, una comprensión de los mecanismos
de justificación de las creencias científicas. Con su caracterización de los enunciados de
protocolo Neurath pretende eliminar cualquier sugestión “ontológica” (realista) y absolutista
subyacente a ellos. De ese modo, la teoría de la ciencia se concibe como análisis del lenguaje
científico inmunizado del peligro del realismo conceptual (que pretende hablar de la existencia
de determinadas entidades) y orientado en el problema de la legitimidad de sus enunciados.
Volvamos a la discusión sobre los enunciados de protocolo. Popper y Neurath coinciden en que
nunca podemos llegar a identificar ningún fundamento observacional sólido. Pero a partir de
aquí comienza la divergencia. Porque para fundamentar empíricamente la objetividad de la
ciencia la forma de los enunciados de protocolo de Neurath es, según Popper, completamente
inocua: Está muy extendida la creencia de que el enunciado “veo que esta mesa es blanca”
posee una ventaja radical –desde el punto de vista epistemológico– sobre este otro: “esta mesa
es blanca”. Pero con la mira puesta en la evaluación de sus posibles contrastaciones objetivas,
el primer enunciado, que habla de mí, no parece más seguro que el segundo, que habla de la
mesa que está aquí.
La primera opción sólo interesa al psicólogo, no al epistemólogo orientado en las cuestiones de
las conexiones lógicas existentes entre los enunciados científicos y en la evaluación de sus
contrastaciones. En su crítica al falsacionismo, sin embargo, Neurath orienta la teoría de la
ciencia, vale decir, la teoría de la justificación de las creencias científicas en la estabilidad de los
enunciados. Y en esa vena, la forma de los enunciados de protocolo es determinante pues,
para nosotros tales enunciados de protocolo tienen la ventaja de una mayor estabilidad.
Podemos continuar usando el enunciado “En el siglo XVI las personas veían espadas de fuego
en el cielo”, mientras que se suprimiría el enunciado “Había espadas de fuego en el cielo”.
Los enunciados de protocolo se integran en colecciones de enunciados que constituyen el
lenguaje científico. El lenguaje de la ciencia es un lenguaje de naturaleza no formal, fisicalista,
es decir, un lenguaje expresado en una terminología espacio-temporal. Es un lenguaje que
contiene expresiones imprecisas y vagas (“aglomeraciones”) porque en él se encuentran
también, como acaba de verse, enunciados de protocolo que formulan percepciones
expresadas en términos vagos, términos del lenguaje cotidiano. Ello aleja al lenguaje fisicalista
del lenguaje
transparente, exacto, cartesiano, que sólo puede ser construido localmente, en el interior de
marcos lingüísticos concebidos para formular problemas de cálculo.
Así pues, no sólo no es admisible estipular una suerte de tabula rasa, una base segura para el
lenguaje científico, sino que, además, ese lenguaje no es construible como un lenguaje exacto
cartesiano, porque nuestro propio proceso de investigación genera aglomeraciones dotadas de
una transparencia y estabilidad limitadas. En esas aglomeraciones se combinan términos del
lenguaje corriente y del lenguaje científico avanzado. Ésta es una condición definitiva del
lenguaje de la ciencia, no una condición contingente que podría aproximarse, reemplazándolo
por un lenguaje cada vez más sistemático, al lenguaje transparente exacto. El lenguaje de la
ciencia es una jerga universal irreducible al lenguaje exacto. Pero simultáneamente es
diferente del lenguaje corriente porque contiene términos precisos, ausentes en este último.
Carnap y Popper se adhieren a una concepción del lenguaje cartesiano de la ciencia construido
según los criterios de transparencia y sistematicidad. La transparencia expresa el correlato
terminológico de las ideas claras y distintas cartesianas. El sistema se constituye como el
modelo del lenguaje para la ciencia.
La teoría de la ciencia de Neurath explota, sin embargo, esta caracterización del lenguaje
científico para ofrecer, a partir de ella, una teoría del conocimiento científico de nueva raíz, en
la que, frente al modelo de sistema para la ciencia se propone un modelo de enciclopedia. Las
ciencias son colecciones de enunciados que no pueden aislarse en compartimentos estancos.
Todas las ciencias están estrechamente conectadas entre sí, hasta el punto de que podemos
considerarlas como parte de una ciencia única, una ciencia unificada cuyo lenguaje es la jerga
universal, que trata de astros, de plantas, de naciones, de seres humanos..., en suma, una
ciencia única que representa una “historia cósmica” con una agregación de enunciados, parte
de los cuales se utilizan cada vez que se trata de analizar ciertas correlaciones en un campo u
otro de estudio. La propuesta de Neurath se orienta, por tanto, en una dirección claramente
histórica: la elección de una colección de enunciados, es decir, de una enciclopedia, está
determinada por las condiciones sociales e históricas. Porque el lenguaje de la enciclopedia,
con sus aglomeraciones, pertenece inextricablemente al ámbito de la práctica. Las
aglomeraciones manifiestan la intrusión del “mundo” en el dominio lingüístico. Las
aglomeraciones proporcionan los vínculos entre la ciencia y el mundo de la vida como soporte
que motiva a aquélla.
El modelo de sistema para la ciencia es el equivalente metodológico del absolutismo cultural,
es decir, de la tendencia a crear tipos ideales (Weber) y abstracciones hipostásicas como el
homo economicus o el sensorium dei de Newton. Esta actitud se ejemplifica perfectamente en
el determinismo laplaciano que estipula un ser sobrehumano en condiciones de prever los
desplazamientos futuros de todos los cuerpos, una vez conocidas las posiciones presentes y las
fórmulas que describen sus movimientos. En el campo metodológico esta exigencia se expresa
en la creencia en la consecución posible de un sistema-modelo para la ciencia. Popper es un
adherente de este modelo. Pero, en realidad, sólo podemos disponer de complejos o conjuntos
de enunciados que se muestran más o menos adecuados a la enciclopedia-modelo que el
científico adopta en cada momento de su investigación. A diferencia del pseudorracionalismo,
un racionalismo consciente de sus límites no puede olvidar la naturaleza constructiva,
provisional y pragmática del conocimiento científico. La práctica científica no se orienta, según
Neurath, en la construcción de un único sistema científico, sino en el “arte” de construir
lenguajes científicos concurrentes. Esos lenguajes (“esquemas”, “modelos”) contribuyen a los
fines bien limitados del análisis, en cuanto que ofrecen instrumentos para la deducción y el
cálculo, pero es incorrecto derivar de ello un objetivo situado más allá, en especial, una
sobrevaloración que incurra en el ideal del sistema-modelo pseudorracionalista. La teoría de la
ciencia de Neurath subraya el carácter pluralista, incompleto y antisistemático de la ciencia
unificada, una ciencia que no se orienta hacia un modelo de sistema ideal, sino que propone la
imagen de que la ciencia procede mediante sistematizaciones locales, buscando siempre
restablecer la coherencia continuamente comprometida con la incorporación de nuevos
enunciados.
El pseudorracionalismo falsacionista
Pseudorracionalismo de la falsación
Popper cierra el camino para una plena valoración de la práctica y la historia de la investigación
mediante una determinada forma de pseudorrealismo. Es decir, él no toma la ambigüedad de
las ciencias positivas como fundamento de sus consideraciones, sino que, siguiendo en cierto
modo al espíritu laplaciano, tiende a un único sistema distinguido de enunciados como
paradigma de todas las ciencias positivas.
Popper sigue ciertas ideas fundamentales que han sido desarrolladas en el seno del Círculo de
Viena. Las ideas fundamentales a las cuales se acerca en su conjunto la postura de Popper son
aproximadamente éstas: si analizamos lógicamente las ciencias positivas como masas de
enunciados, partimos del hecho de que todos los enunciados positivos que son similares a
aquellos que se construyen en la física pueden ser modificados, y también pueden serlo en
ciertas circunstancias los “enunciados protocolares”. En los intentos de lograr masas no
contradictorias de enunciados apartamos ciertos enunciados, modificamos otros, sin poder
partir por ello de “enunciados atómicos” absolutos o de otros elementos definitivos.
Si bien en general Popper mantiene puntos de vista semejantes a los anteriores y evita así
ciertos errores, utiliza en cierto modo, por otro lado, como modelos de las ciencias positivas
teorías bien abarcables, constituidas por enunciados nítidos. Mediante la forma de sus
“enunciados de base” se determina qué debe considerarse como enunciado empírico, es decir,
“falsable”. Según él, las teorías se contrastan por medio de enunciados de base precedentes
admitidos provisionalmente. Se rechazan si esos enunciados de base “corroboran una hipótesis
falsadora”. La falsación constituye por lo tanto el fundamento de todas las demás
consideraciones de Popper. Sus pensamientos giran constantemente alrededor de un
determinado ideal que él ciertamente no indica como alcanzable, pero que utiliza, por así decir,
como modelo cuando quiere explicitar qué significa que un sistema científico-empírico fracasa
ante “la” experiencia. A esta situación se adecuaría una teoría mediante la cual se identificara
“‘nuestro mundo particular’, ‘el mundo de nuestra realidad experiencial’, con la máxima
exactitud alcanzable por una ciencia teórica. ‘Nuestro mundo’ se describiría con medios
teóricos: se caracterizarían como permitidos aquellos procesos y clases de eventos, y sólo ellos,
que encontráramos realmente”.
Por nuestra parte, procuramos utilizar modelos que no requieren pensar desde el principio en
un ideal de ese tipo. Partimos de masas de enunciados que sólo en parte están conectados
sistemáticamente, y que también sólo parcialmente abarcamos. Las teorías se sitúan junto a las
comunicaciones singulares. Mientras que el investigador trabaja con la ayuda de una parte de
esa masa de enunciados, otros introducen añadidos que aquél está dispuesto a aceptar por
principio, sin calcular del todo las consecuencias lógicas de esta decisión. Los enunciados de la
masa de enunciados con los cuales se trabaja realmente utilizan muchos términos imprecisos,
de manera que sólo como abstracciones pueden destacarse los “sistemas”. Los enunciados se
conectan entre sí a veces más estrechamente, otras más débilmente. La conexión total no es
transparente, si bien en determinados lugares se intentan deducciones sistemáticas. Esta
situación no provoca de ningún modo la idea de un “regreso al infinito”, mientras que Popper
debe rechazarla especialmente en determinada conexión. Si se quiere decir que Popper parte
de sistemas-modelo, puede decirse que por nuestro lado partimos de enciclopedias-modelo,
con
lo cual se quiere expresar desde el principio que no ponemos como base de nuestra
consideración sistemas de enunciados nítidos.
Como Popper parte del “modus tollens” de la lógica clásica como su paradigma, caracteriza los
“enunciados singulares universales” (es decir, los “enunciados existenciales indefinidos”) como
“enunciados metafísicos”, esto es, como enunciados no-empíricos, porque no serían falsables.
Sin embargo, vemos cuán provechosos son en la historia de las ciencias y podemos esbozar una
teoría de la investigación en la que ellos desempeñen un papel legítimo.
Para poder aplicar su paradigma de la manera menos entorpecida posible, Popper propone
interpretar las “leyes de la naturaleza” no como enunciados de generalidad puramente
“numérica” sino como enunciados de generalidad “específica”. Creemos que una teoría de la
investigación debería formular sus métodos de manera tan tolerante como para poder
satisfacer tanto a los investigadores que por especial prudencia formulan todas las leyes para
un dominio limitado o tratan el mundo como finito (como el mismo Popper menciona) como a
los investigadores que por alguna razón prefieren justamente formulaciones de generalidad
específica, como tiene en mente Popper. En astronomía, en geología, en sociología y en otras
muchas disciplinas en las que el experimento (por Popper sobrevalorado) desempeña un papel
limitado, tales enunciados existenciales indefinidos son, como predicciones decidibles
unilateralmente, parte constitutiva de la investigación normal –naturalmente, esto es más raro
en la óptica o en la acústica–. Si decimos, por ejemplo, que en un día futuro podremos
observar un cometa en una determinada posición, tenemos “ante nosotros un enunciado
decidible sólo unilateralmente. Esto es, si el enunciado es verdadero, llegará el día en el que
podremos decidir que es verdadero, pero si no es verdadero, nunca llegará el día en el que
podremos decidir que es no-verdadero”. Puede ser muy importante que un investigador
explore, por ejemplo, una determinada región del cielo porque una confirmación de su
predicción de que allá regresará un cometa corroboraría nuevamente una teoría muy audaz,
para la que en un futuro próximo no parece posible ninguna falsación en el sentido de Popper.
Así como asigna a la metafísica estos “enunciados singulares universales”, Popper se ve
inclinado también a incluir en las “regiones metafísicas” los modelos que no conducen
inmediatamente a la “falsación”. Popper incluye, por ejemplo, entre las “ideas metafísicas” a la
vieja teoría corpuscular de la luz, mientras que nosotros incluiremos en la serie de modelos
científicos un modelo que muestre por ejemplo, aunque sea de manera vaga, que
determinadas correlaciones de, por ejemplo, fenómenos luminosos, que conocemos por
nuestra enciclopedia, sin conexiones teóricas especiales, pueden ser deducidas según el tipo
de determinados presupuestos más generales, por ejemplo, de una teoría corpuscular. Según
nuestra perspectiva, entre estos modelos más imprecisos y los más definidos de nuestra ciencia
existen innumerables niveles intermedios. Nosotros no conocemos la línea que separa las
teorías “falsables” de las “no falsables”. Buscamos únicamente discutir lo más explícitamente
posible las “corroboraciones” y “quiebras”.
A Popper no le es suficiente que los enunciados de las ciencias positivas sean contrastables
potencialmente según su forma (queda por ver si esa forma es precisable con rigor), esto es,
que según nuestra concepción sean “no metafísicas” (especialmente Carnap), sino que enfatiza
sobremanera que deben ser contrastables también actualmente. Ésta es una propuesta
restrictiva que no entendemos conveniente para la teoría de la investigación. “Todo enunciado
científico empírico debe ser presentado, mediante la indicación del orden experimental y otras
indicaciones semejantes, en una forma tal que cualquiera que domine la técnica del ámbito en
cuestión, sea capaz de revisarlo”. La sobredimensión de la “falsación” lleva también a Popper a
ver la práctica de la investigación exclusivamente desde el punto de vista de que “el teórico
formula problemas bien definidos al experimentador, quien busca con sus experimentos
alcanzar una decisión para esos problemas y sólo para ellos”. Las colecciones de materiales
(fotografías del cielo, etc.), los diarios de viaje (muy instructivo precisamente para este
problema es el diario que llevaba Darwin mientras realizaba sus viajes alrededor del mundo)
deben partir naturalmente de ciertas orientaciones teóricas para que pueda elegirse entre los
enunciados posibles, pero esas orientaciones teóricas no son de ninguna manera idénticas a
los estrictos planteos de problemas de la teoría, que son los que de alguna manera fuerzan
según Popper a la “falsación”. Él habla con cierto desprecio de aquel “método legendario del
avance desde la observación y el experimento hasta la teoría (un método con el cual algunas
ciencias intentan trabajar aún, creyendo que éste sería el método de la física experimental)”.
Sin embargo, cuánto material etnográfico debe acumularse a menudo antes de llegar a una
teoría, y con cuánta frecuencia debe describirse sistemáticamente un grupo de procesos en
física, antes de que se lo pueda clasificar. Recuerdo la voluminosa literatura sobre el
“magnetismo de la rotación” en los años veinte del siglo XIX. Se disponía de datos precisos,
sobre los cuales podía predecirse, por ejemplo, cómo se movería una aguja magnética si se
hacía rotar un disco de cobre, sin que se hablara de una integración de esas formulaciones en
una teoría más general. Gran parte del amplio material de observación recogido contra el
cuanto elemental eléctrico mencionado por Popper podrá quizá más adelante integrarse
teóricamente; por el momento, sin embargo, un conjunto de enunciados de observación que
parecen contradecir la teoría cuántica elemental no son interpretados como “quiebras”
esenciales, precisamente porque se consideran muy significativas las “corroboraciones” de la
teoría cuántica elemental. Popper, por el contrario, querría ver decisiones fuertes también
sólidamente fundamentadas. Esta es una orientación fundamental de muchas tendencias
pseudorracionalistas que deberían ser explicadas quizá con la “psicología de la decisión”. Las
personas que realizan una determinada acción sobre la base de una decisión, frecuentemente
no encuentran satisfactorio haber llevado a la acción tal decisión después de haber evaluado
muchas circunstancias singulares; si no pueden llegar a ninguna aprobación “trascendente”,
querrían poder aducir al menos una deducción lógica unívoca como justificación. Mientras que
nosotros por nuestra actitud vacilamos entre la decisión de interpretar algo como una
“quiebra” grave o la de ignorarla por el momento, para poder seguir con el trabajo previsto
como investigadores, frecuentemente las argumentaciones
de Popper aluden claramente a una actitud más absoluta: “Si una decisión ha sido negativa, si
las consecuencias han sido falsadas, su falsación atañe también al sistema del que se han
deducido” –como si existiera un sistema que pudiera ser delimitado de manera tan neta que
permitiera proceder de esta manera–. Es comprensible que con semejante actitud Popper deba
sobrevalorar la utilidad del concepto de “grado de falsabilidad” en el análisis del trabajo de
investigación. A partir de esta actitud general bien se explica por qué habla Popper con tanto
gusto del “experimentum crucis”, a pesar de todas las advertencias de Duhem: “Así pues, en
general consideramos definitiva una falsación comprobable intersubjetivamente
(adecuadamente garantizada desde el punto de vista metodológico); precisamente en esto se
expresa la asimetría entre la verificación y la falsación de las teorías. Estas relaciones
contribuyen de modo peculiar al carácter aproximativo del desarrollo de la ciencia”. Más arriba
hemos caracterizado como dudoso ese “carácter aproximativo”. Popper sostiene, por ejemplo,
que los “efectos ocultos” no deben ser tomados demasiado en serio porque no siempre son
reproducibles. A esto podría objetarse que existe una gran cantidad de efectos no
reproducibles, pero bien documentados, que están bien anclados en las teorías y que se toman
muy en serio. Por el contrario, las investigaciones “ocultas” no representan ningún progreso
auténtico; con frecuencia se realizan mediante el engaño, etc. Pero éstas son argumentaciones
que no derivan de la sobrevaloración del experimento como Popper pretende. Podemos
esbozar un modelo de desarrollo de la ciencia que no conozca por principio ningún
experimento; por ejemplo, siguiendo la metáfora de la caverna de Platón, que habla de los
prisioneros encadenados a la pared, que pueden predecir perfectamente sombras y voces, si
bien se les ha arrebatado toda posibilidad de experimento. De ninguna manera debe
infravalorarse el significado del método experimental; sólo se debe refutar la idea de que el
método experimental sea tan decisivo para
la ciencia, como debería seguirse de las consideraciones particulares de Popper y del conjunto
de su teoría de la falsación. El objetivo de este artículo es rechazar determinadas
argumentaciones de Popper que dan forma nueva al viejo absolutismo filosófico. Tampoco
queremos introducir la discusión sobre problemas de la probabilidad en Popper (sobre los que
Carnap, Hempel, Reichenbach ya han discutido) porque, aunque desempeñan un papel
relevante en su libro, no modifican la concepción fundamental. Parece, sin embargo, que por
su modo de proponer las cuestiones, también aquí se dificulta Popper el tratamiento de
determinados problemas de la investigación.
Pseudorracionalismo y filosofía
Introducción
H no es verdadera.
Toda inferencia de esta forma, llamada en lógica modus tollens, es deductivamente válida; es
decir, que si sus premisas son verdaderas, entonces su conclusión es indefectiblemente
verdadera también.
Consideremos ahora el caso en que la observación o la experimentación confirman la
implicación contrastadora, B. Los experimentos muestras que la implicación contrastadora es
verdadera. Pero este resultado favorable no prueba de un modo concluyente que la hipótesis
sea verdadera, porque el razonamiento en que nos hemos basado tendría la forma siguiente:
H es verdadera.
H es verdadera.
Hemos examinado algunas investigaciones científicas en las cuales, ante un problema dado, se
proponían respuestas en forma de hipótesis que luego se contrastaban derivando de ellas las
apropiadas implicaciones contrastadoras, y comprobando éstas mediante la observación y la
experimentación. Pero, ¿cómo se llega en un principio a las hipótesis adecuadas? Se ha
mantenido a veces que esas hipótesis se infieren de datos recogidos con anterioridad por
medio de un procedimiento llamado inferencia inductiva, en contraposición a la inferencia
deductiva, de la que difiere en importantes aspectos.
En una argumentación deductivamente válida, la conclusión está relacionada de tal modo con
las premisas que si las premisas son verdaderas entonces la conclusión no puede dejar de
serlo. Esta exigencia la satisface, por ejemplo, una argumentación de la siguiente forma
general:
Si p, entonces q
No es el caso que q
No es el caso que p.
Independientemente de cuáles sean los enunciados concretos con que sustituyamos las letras
p y q, la conclusión será, con seguridad, verdadera si las premisas lo son. De hecho, nuestro
esquema representa la forma de inferencia llamada modus tollens, a la que ya nos hemos
referido. El ejemplo siguiente es una muestra de otro tipo de inferencia deductivamente válido:
Toda sal de sodio, expuesta a la llama de un mechero Bunsen, hace tomar a la llama un color
amarrillo
Este trozo de minera, cuando se le aplique la llama de un mechero Bunsen, hará tomar a la
llama un color amarillo.
De las argumentaciones de este último tipo se dice a menudo que van de lo general (en este
caso, las premisas que se refieren a todas las sales de sodio) a lo particular (una conclusión
referente a este trozo concreto de sal de sodio). Se dice a veces que, por el contrario, las
inferencias inductivas parten de premisas que se refieren a casos particulares y llevan a una
conclusión cuyo carácter es el de una ley o principio genera. Por ejemplo, partiendo de
premisas según las cuales cada una de las muestras concretas de varias sales de sodio que ha
sido aplicadas hasta ahora a la llama de un mechero de Bunsen ha hecho tomar a la llama un
color amarillo, la inferencia inductiva -se supone- lleva a la conclusión general de que todas las
sales de sodio, cuando se les aplica la llama de un mechero Bunsen, tiñen de amarillo la llama.
Pero es obvio que en este caso la verdad de las premisas no garantiza la verdad de la
conclusión; porque incluso si es el caso que todas las muestras de sales de sodio hasta ahora
examinadas vuelven amarilla la llama de Bunsen, incluso en ese caso, queda la posibilidad de
que se encuentren nuevos tipos de sal de sodio que no se ajusten a esta generalización.
Además, pudiera también ocurrir perfectamente que algunos de los tipos de sodio que han
sido examinados con resultado positivo dejen de satisfacer la generalización cuando se
encuentren en condiciones físicas especiales, bajo las cuales no han sido todavía sometidas a
prueba. Por esta razón, con frecuencia se dice que las premisas de una inferencia inductiva
implican la conclusión sólo con un grado más o menos alto de probabilidad, mientras que las
premisas de una inferencia deductiva implican la conclusión con certeza.
La idea de que, en la investigación científica, la inferencia inductiva que parte de datos
recogidos con anterioridad conduce a principios generales apropiados aparece claramente en
la siguiente descripción idealizada del proceder de un científico: Si intentamos imaginar cómo
utilizaría el método científico… una mente de poder y alcance sobrehumanos, pero normal en
lo que se refiere a los procesos lógicos de su pensamiento, el proceso sería el siguiente: En
primer lugar, se observarían y registrarían todos los hechos, sin seleccionarlos ni hacer
conjeturas a priori acerca de su relevancia. En segundo lugar, se analizarían, compararían y
clasificarían esos hechos observados y registrados, sin más hipótesis ni postulados que los que
necesariamente supone la lógica del pensamiento. En tercer lugar, a partir de este análisis de
los hechos se harían generalizaciones inductivas referentes a las relaciones, clasificatorias o
causales, entre ellos. En cuarto lugar, las investigaciones subsiguientes serían deductivas tanto
como inductivas, haciéndose inferencias a partir de generalizaciones previamente establecidas.
Este testo distingue cuatro estadios en una investigación científica ideal: (1) observación y
registro de todos los hechos; (2) análisis y clasificación de éstos; (3) derivación inductiva de
generalizaciones a partir de ellos, y (4) contrastación ulterior de las generalizaciones. En los dos
primeros estadios no hay hipótesis ni conjeturas acerca de cuáles puedan ser las conexiones
entre los hechos observados; esta restricción parece obedecer a la idea de que esas ideas
preconcebidas resultarían tendenciosas y comprometerían la objetividad científica de la
investigación. Pero la concepción formulada en el texto que acabamos de citar -y a la que
denominaré la concepción inductivista estrecha de la investigación científica- es insostenible
por varias razones.
En primer lugar, una investigación científica, tal como ahí nos la presentan, es impracticable. Ni
siquiera podemos dar el primer paso, porque para poder reunir todos los hechos tendríamos
que esperar, por decirlo así, hasta el fin del mundo; y tampoco podemos reunir todos los
hechos dados hasta ahora, puesto que éstos son infinitos tanto en número como en variedad.
¿Hemos de examinar, por ejemplo, todos los granos de arena de todos los desiertos y de todas
las playas, y hemos de tomar nota de su forma, de su peso, de su composición química, de las
distancias entre uno y otro, de su temperatura constantemente cambiante y de su igualmente
cambiante distancia al centro de la Luna? ¿Hemos de registrar los pensamientos fluctuantes
que recorren nuestra mente en los momentos de cansancio? ¿Las formas de las nubes y la
marca de nuestros utensilios de escritura? ¿Nuestras biografías y las de nuestros
colaboradores? Después de todo, todas estas cosas, y otras muchas, están entre <<los hechos
que se han dado hasta ahora>>. Pero cabe la posibilidad de que lo que se nos exija en esa
primera fase de la investigación científica sea reunir todos los hechos relevantes. Pero,
¿relevantes con respecto a qué? Aunque el autor no hace mención de este punto, supongamos
que la investigación se refiere a un problema específico. ¿Es que no empezaríamos, en ese
caso, haciendo acopio de todos los hechos -o, mejor, de todos los datos disponibles- que sean
relevantes para ese problema? El tipo concreto de datos que haya que reunir no está
determinado por el problema que se está estudiando, sino por el intento de respuesta que el
investigador trata de darle en forma de conjetura o hipótesis. Los <<hechos>> o hallazgos
empíricos sólo se pueden cualificar como lógicamente relevantes o irrelevantes por referencia
a una hipótesis dada, y no por referencia a un problema dado. Supongamos que se ha
propuesto una hipótesis H como intento de respuesta a un problema planteado en una
investigación: ¿qué tipo de datos serían relevantes con respecto a H? un dato que hayamos
encontrado es relevante con respecto a H si el que se dé o no se dé se puede inferir de H.
En resumen: la máxima según la cual la obtención de datos debería realizarse sin la existencia
de hipótesis antecedentes que sirvieran para orientarnos acerca de las conexiones entre los
hechos que se están estudiando es una máxima que se autorrefuta, y a la que la investigación
científica no se atiene. Al contrario: las hipótesis, en cuanto intentos de respuesta, son
necesarias para servir de guía a la investigación científica. Esas hipótesis determinan, entre
otras cosas, cuál es el tipo de datos que se han de reunir en un momento dado de una
investigación científica. Existe, entonces, una imposibilidad de reunir «todos los datos
relevantes» sin conocimiento de las hipótesis con respecto a las cuales tienen relevancia esos
datos. Un conjunto de «hechos» empíricos se puede analizar y clasificar de muy diversos
modos, la mayoría de los cuales no serían de ninguna utilidad para una determinada
investigación. Para que un modo determinado de analizar y clasificar los hechos pueda
conducir a una explicación de los fenómenos en cuestión debe estar basado en hipótesis
acerca de cómo están conectados esos fenómenos; sin esas hipótesis, el análisis y la
clasificación son ciegos.
Nuestras reflexiones críticas sobre los dos primeros estadios de la investigación descartan la
idea de que las hipótesis aparecen sólo en el tercer estadio, por medio de una inferencia
inductiva que parte de datos recogidos con anterioridad.
Otras observaciones: la inducción se concibe a veces como un método que, por medio de
reglas aplicables mecánicamente, nos conduce desde los hechos observados a los
correspondientes principios generales. En este caso, las reglas de la inferencia inductiva
proporcionarían cánones efectivos del descubrimiento científico; la inducción sería un
procedimiento mecánico análogo al familiar procedimiento para la multiplicación de enteros,
que lleva, en un número finito de paso predeterminados y realizables mecánicamente, al
producto correspondiente. De hecho, sin embargo, en este momento no disponemos de ese
procedimiento general y mecánico de inducción; en caso contrario, difícilmente estaría hoy sin
resolver el muy estudiado problema del origen del cáncer. Porque -para dar sólo una de las
razones- las hipótesis y teorías científicas están usualmente formuladas en términos que no
aparecen en absoluto en la descripción de los datos empíricos en que ellas se apoyan y a cuya
explicación sirven. Los procedimientos mecánicos para la construcción de una hipótesis juegan
tan sólo un papel parcial, pues presuponen una hipótesis antecedente, menos específica, a la
que no se puede llegar por el mismo procedimiento. No hay, por tanto, <<reglas de
inducción>> generalmente aplicables por medio de las cuales se puedan derivar o inferir
mecánicamente hipótesis o teorías a partir de los datos empíricos. La transición de los datos a
la teoría requiere imaginación creativa. Las hipótesis y teorías científicas no se derivan de los
hechos observados, sino que se inventan para dar cuenta de ellos. Son conjeturas relativas a las
conexiones que se pueden establecer entre los fenómenos que se están estudiando, a las
uniformidades y regularidades que subyacen a éstos. Las <<conjeturas felices>> de este tipo
requieren gran inventiva, especialmente si suponen una desviación radical de los modos
corrientes del pensamiento científico, como era el caso de la teoría de la relatividad o de la
teoría cuántica. El esfuerzo inventivo requerido por la investigación científica saldrá beneficiado
si se está completamente familiarizado con los conocimientos propios de ese campo.
En la ciencia, si bien las hipótesis y teorías pueden ser libremente inventadas y propuestas, sólo
pueden ser aceptadas e incorporadas al corpus del conocimiento científico si resisten la
revisión crítica, que comprende, en particular, la comprobación, mediante cuidadosa
observación y experimentación, de las apropiadas implicaciones contrastadoras. También la
imaginación y la libre invención juegan un papel de importancia similar en aquellas disciplinas
cuyos resultados se validan mediante el razonamiento deductivo exclusivamente; por ejemplo,
en matemáticas. Porque las reglas de la inferencia deductiva no proporcionan, tampoco, reglas
mecánicas de descubrimiento. Tal como lo ilustraba nuestra formulación del modus tollens,
estas reglas se expresan por lo general en forma de esquemas generales: y cada ejemplificación
de esos esquemas generales constituye una argumentación deductivamente válida. Dadas unas
premisas concretas, ese esquema nos señala el modo de llegar a una consecuencia lógica. Pero,
dado cualquier conjunto de premisas, las reglas de la inferencia deductiva señalan una
infinidad de conclusiones válidamente deducibles. Tomemos, por ejemplo, una regla muy
simple representada por el siguiente esquema:
p
poq
La regla nos dice, en efecto, que de la proposición según la cual es el caso que p, se sigue que
es el caso que p o q, siendo p y q proposiciones cualesquiera. La palabra <<o>> se entiende
aqué en su sentido <<no exclusivo>>, de modo que decir <<p o q>> es lo mismo que decir <<o
p o q o ambos a la vez>>. Es claro que si las premisas de una argumentación de este tipo son
verdaderas, entonces la conclusión debe serlo también; por tanto, cualquier razonamiento que
tenga esta forma es un razonamiento válido. Pero esta regla, por sí sola, nos autoriza a inferir
consecuencias infinitamente diferentes a partir de una sola premisa. Así, por ejemplo, de <<la
Luna no tiene atmósfera>>, nos autoriza a inferir un enunciado cualquiera de la forma <<la
Luna no tiene atmósfera o q>>, donde, en lugar de q, podemos escribir un enunciado
cualquiera, verdadero o falso; por ejemplo, <<la atmósfera de la Luna es muy tenues>>, <<la
Luna esta deshabitada>>, <<el otro es más denso que la plata>>, <<la plata es más densa que
el oro>>, etc. Hay, desde luego, otras reglas de la inferencia deductiva que hacen mucho mayor
la variedad de enunciados derivables de una premisa o conjunto de premisas, las reglas de
deducción no marcan una dirección fija a nuestros procedimientos de inferencia. No nos
señalan un enunciado como <<la>> conclusión que ha de derivarse de nuestras premisas, ni
nos indican cómo obtener conclusiones interesantes o importantes desde el punto de vista
sistemático; no proporcionan un procedimiento mecánico para, por ejemplo, derivar teoremas
matemáticos significativos a partir de unos postulados dados. El descubrimiento de teoremas
matemáticos importantes, fructíferos, al igual que el descubrimiento de teorías importantes,
fructíferas, en la ciencia empírica, requiere habilidad inventiva; exige capacidad imaginativa,
penetrante, de hacer conjeturas. Pero, además, los intereses de la objetividad científica están
salvaguardados por la exigencia de una validación objetiva de esas conjeturas. En matemáticas
esto quiere decir prueba por derivación deductiva a partir de los axiomas. Y cuando se ha
propuesto como conjetura una proposición matemática, su prueba o refutación requiere
todavía inventiva y habilidad, muchas veces de gran altura; porque las reglas de la inferencia
deductiva no proporcionan tampoco un procedimiento mecánico general para construir
pruebas o refutaciones. Su papel sistemático es más modesto: servir como criterios de
corrección de las argumentaciones que se ofrecen como pruebas; una argumentación
constituirá una prueba matemática válida si llega desde los axiomas hasta el teorema
propuesto mediante una serie de pasos, todos los cuales son válidos de acuerdo con alguna de
las reglas de la inferencia deductiva. Y comprobar si un argumento dado es una prueba válida
en este sentido sí que es una tarea puramente mecánica.
Así, pues, como hemos visto, al conocimiento científico no se llega aplicando un procedimiento
inductivo de inferencia a datos recogidos con anterioridad, sino más bien mediante el llamado
<<método de las hipótesis>>, es decir, inventando hipótesis a título de intentos de respuesta a
un problema en estudio, y sometiendo luego éstas a la contrastación empírica. Una parte de
esa contrastación la constituirá el ver si la hipótesis está confirmada por cuantos datos
relevantes hayan podido ser obtenidos antes de la formulación de aquélla; una hipótesis
aceptable tendrá que acomodarse a los datos relevantes con que ya se contaba. Otra parte de
la contrastación consistirá en derivar nuevas implicaciones contrastadoras a partir de la
hipótesis, y comprobarlas mediante las oportunas observaciones o experiencias. Como antes
hemos señalado, una contrastación con resultados favorables, por amplia que sea, no
establece una hipótesis de modo concluyente, sino que se limita a proporcionarle un grado
mayor o menor de apoyo. Por tanto, aunque la investigación científica no es inductiva en el
sentido estrecho que hemos examinado con algún detalle, se puede decir que es inductiva en
un sentido más amplio, en la medida en que supone la aceptación de hipótesis sobre la base de
datos que no las hacen deductivamente concluyentes, sino que sólo les proporcionan un
<<apoyo inductivo>> más o menos fuerte, un mayor o menor grado de confirmación. Y las
<<reglas de inducción>> han de ser concebidas, en cualquier caso, por analogía con las reglas
de deducción, como cánones de validación, más bien que de descubrimiento. Lejos de generar
una hipótesis que da cuenta de los resultados empíricos dados, esas reglas presuponen que
están dados, por una parte, los datos empíricos que forman las <<premisas>> de la
<<inferencia inductiva>> y, por otra parte, una hipótesis de tanteo que constituye su
<<conclusión>>. Lo que harían las reglas de inducción sería, entonces, formular criterios de
corrección de la inferencia. Según algunas teorías de la inducción, las reglas determinarían la
fuerza del apoyo que los datos prestan a la hipótesis, y pueden expresar ese apoyo en términos
de probabilidades.
Algunos ejemplos
Consideremos el siguiente ejemplo. Desde un bote, la pala del remo sumergida se ve quebrada
hacia arriba. El fenómeno se explica mediante leyes generales, en especial por la ley de
refracción y la de que el agua es un medio ópticamente más denso que el aire, haciendo
referencia a ciertas condiciones antecedentes, o sea que parte del remo está en el agua, parte
en el aire y que el remo es prácticamente un trozo de madera recto. Así, la pregunta «¿Por qué
sucede el fenómeno?» deberá interpretarse como «¿De acuerdo con qué leyes generales y
condiciones antecedentes se produce el fenómeno?» Además de considerar la explicación de
hechos particulares que ocurren en cierto tiempo y en cierto lugar determinados, la pregunta
«¿por qué?» puede formularse también con respecto a leyes generales. Así, en nuestro último
ejemplo, podría preguntarse «¿Por qué la propagación de la luz se acomoda a la ley de
refracción?». La física clásica responde en función de la teoría ondulatoria de la luz, es decir,
afirmando que la propagación de la luz es un fenómeno de onda de cierto tipo general, y que
todo fenómeno ondulatorio de ese tipo satisface la ley de refracción. De este modo, la
explicación de una regularidad general consiste en subsumirla dentro de otra regularidad más
inclusiva, o sea una ley más general.
De manera similar, la validez de la ley de Galileo sobre la caída de los cuerpos en la superficie
terrestre, puede explicarse a partir de un conjunto más inclusivo de leyes, tales como las del
movimiento y de la gravedad de Newton, además de otros enunciados acerca de hechos
particulares, como la masa y el radio terrestres.
(R1) El explanandum debe ser una consecuencia lógica del explanans; expresado en
otras palabras, el primero debe ser lógicamente deducible de la información
contenida en el explanans, porque de lo contrario este último no podría
constituir una base adecuada para el explanandum.
(R2) El explanans debe contener leyes generales exigidas realmente para la
derivación del explanandum.
(R3) El explanans debe tener contenido empírico; es decir, que por lo menos en
principio sea posible comprobarse mediante el experimento o la observación.
Esta condición está implícita en (R1), pues, desde que se supone que el
explanandum describe cierto fenómeno empírico, se puede concluir a partir de
(R1) que el explanans entraña por lo menos una consecuencia de índole
empírica, y este hecho le otorga la condición de ser verificable y de tener
contenido empírico.
(R4) Las oraciones que constituyen el explanans han de ser verdaderas. Es obvio
que en una explicación correcta los enunciados que constituyen el explanans
deben satisfacer cierta condición de corrección fáctica. Pero parecería más
adecuado estipular que el explanans ha de ser confirmado en alto grado por
todos los elementos relevantes disponibles, antes que deba considerarse
verdadero. No obstante, esta estipulación conduce a consecuencias
embarazosas. Supóngase que en una etapa primitiva de la ciencia un
determinado fenómeno fuera explicado mediante un explanans verificado con
las pruebas de que se disponía en ese momento, pero que descubrimientos
empíricos más recientes lo hubieran negado. En ese caso, deberíamos decir
que originariamente la explicación fue correcta, pero que dejó de serlo cuando
se descubrieron elementos de prueba desfavorables. Esto no parece concordar
con el saludable uso común, que nos lleva a decir que basada en los elementos
limitados de prueba iniciales, la verdad del explanans y, por ende, la solidez de
la explicación había sido bastante probable, pero que la mayor evidencia ahora
disponible hizo muy probable que el explanans no fuera verdadero; de ahí que
la explicación no era ni había sido nunca correcta.
Se ha de señalar aquí que el mismo análisis formal, incluidas las cuatro condiciones necesarias,
se aplica tanto a la predicción científica como a la explicación. La diferencia entre ambas es de
carácter pragmático. Dado E, es decir, si sabemos que ha ocurrido el fenómeno descripto por E,
y si se proporciona luego un conjunto adecuado de enunciados C1, C2, ..., Ck; L1, L2, ..., Lr,
hablamos de una explicación del fenómeno que estudiamos. Si se proporcionan los últimos
enunciados mencionados y se infiere E antes de que suceda el fenómeno que describe,
hablamos de predicción. En consecuencia, puede decirse que la explicación de un hecho no es
enteramente adecuada a menos que su explanans, considerado a tiempo hubiera podido
fundamentar el pronóstico del hecho que se analiza. Por lo tanto, lo expresado aquí sobre las
características lógicas de la explicación, será aplicable a ambas, aunque sólo se mencione una
de ellas.
Sin embargo, por lo general - y en especial en el razonamiento precientífico - se brindan
muchas explicaciones que carecen de esa fuerza potencial predictiva. Por ejemplo, puede
ilustrarse haciendo referencia al criterio de W. S. Jevons de que toda explicación consiste en
señalar una similitud entre hechos, y que a veces este proceso no necesita referirse a leyes en
absoluto, y "tal vez no implique otra cosa que Una única identidad, como cuando explicamos la
aparición de estrellas fugaces señalando que son idénticas a las porciones de un cometa". Pero
es evidente que esa identidad no proporciona una explicación del fenómeno de las estrellas
fugaces, a menos que presupongamos las leyes que gobiernan el desarrollo del calor y de la luz
como efectos de la fricción. La observación de semejanzas posee un valor explicativo sólo si
implica por lo menos alguna referencia tácita a las leyes generales.
El tipo de explicación que hemos considerado hasta aquí comúnmente se denomina
explicación causal. Si E describe un hecho concreto, puede decirse entonces que las
circunstancias antecedentes señaladas en las oraciones C1, C2, … Ck, "causan" en conjunto aquél
hecho, en el sentido de que existen ciertas regularidades empíricas expresadas por las leyes L1,
L2, ... Lr, las cuales implican que toda vez que ocurran condiciones del tipo indicado por C1, C2, …
Ck, tendrá lugar un hecho del tipo descripto en E. Los enunciados tales como L1, L2, … Lr, que
expresan conexiones generales y ordinarias entre características específicas de hechos, se
denominan habitualmente leyes causales o deterministas. Estas leyes deberán distinguirse de
las llamadas leyes estadísticas, las cuales expresan que, a la larga, un porcentaje explícitamente
establecido de todos los casos que satisfagan un grupo dado de condiciones estará
acompañado por un hecho de cierto tipo especificado. Ciertos casos de explicación científica
implican la "subsunción" de un explanandum bajo un conjunto de leyes, de las cuales por lo
menos algunas son del tipo estadístico.
(Mill: <<Se dice que un hecho individual se explica al señalarle su causa, vale decir, al
formularse la ley o leyes causales de las cuales la producción del hecho es un ejemplo>>, y <<se
dice que una ley o uniformidad en la naturaleza se explica cuando se señala otra ley o leyes de
las cuales aquélla constituye sólo un caso, y de las cuales puede deducirse>>. Jevons: <<El
proceso más importante de explicación consiste en mostrar que un hecho observado es un
caso de una ley o tendencia general>>. Ducasse: <<La explicación consiste, esencialmente, en
ofrecer una hipótesis acerca de un hecho, la cual se encuentra, respecto de éste, como
antecedente de un caso consecuente de alguna ley conectiva ya conocida>>)
La explicación en biología, en psicología y en las ciencias sociales tiene la misma estructura que
en las ciencias físicas, sin embargo, está bastante difundida la opinión de que, en muchos
casos, el tipo causal de explicación es esencialmente inadecuado en otros campos que no sean
la física y la química, y especialmente en el estudio de la conducta intencional. Examinemos
con brevedad algunas de las razones que se han aducido en apoyo de este concepto. Una de
las más familiares entre ellas es la idea de que los hechos que implican actividades humanas,
realizadas de manera individual o en grupo, tienen una singularidad peculiar y sin repetición
que los hace inaccesibles a la explicación causal porque ésta, al confiar en uniformidades,
presupone la repetibilidad de los fenómenos en consideración. Este argumento que
incidentalmente también se utilizó para sostener la afirmación de que el método experimental
es inaplicable en psicología y en las ciencias sociales, implica una falta de comprensión del
carácter lógico de la explicación causal. Todo hecho individual es único, sea en las ciencias
físicas, en psicología o en ciencias sociales, en el sentido de que no se repite con todas sus
características peculiares. Sin embargo, los hechos individuales pueden acomodarse a leyes
generales del tipo causal y ser explicados por ellos, porque todo lo que afirma la ley causal es
que todo hecho de índole específica, es decir, que reúna ciertas características determinadas se
acompaña de otro que, a su vez, tiene ciertos rasgos específicos. Por ejemplo, todo hecho que
implique fricción genera calor. Y todo lo que se requiere para que esas leyes puedan
comprobarse y medirse su aplicabilidad es la repetición de hechos con esas mismas
características, pero no de casos individuales. Por consiguiente, el argumento no es
concluyente. Cuando hablamos de la explicación de un hecho singular, el término <<hecho>>
se refiere al suceso de cierta característica más o menos compleja en una localización espacio-
temporal específica o en un objeto individual determinado, y no a todas las características de
ese objeto, o a todo lo que ocurre en esa región espacio-temporal.
Un segundo argumento afirma que es imposible establecer generalizaciones científicas -y por
ende principios explicativos- acerca de la conducta humana porque las reacciones de un
individuo en una situación dada dependen no sólo de esa situación, sino también de los
antecedentes personales del individuo. Pero sin duda no hay razón a priori por la cual no
puedan lograrse generalizaciones que tomen en cuenta esta dependencia conductual del
pasado del sujeto. Es evidente que en realidad el argumento dado <<prueba>> demasiado y
constituye, por lo tanto, un non sequitur, debido a la existencia de ciertos fenómenos físicos,
tales como la histéresis magnética y la fatiga elástica, en los cuales la magnitud de un efecto
depende de los antecedentes del sistema implicado, y para el cual se han establecido, no
obstante, ciertas regularidades generales.
Un tercer argumento insiste en que la explicación de todo fenómeno que implique una
conducta intencional exige hacer referencia a motivaciones y, en consecuencia, a un análisis
teleológico antes que causal. Tenemos que remitirnos a las metas buscadas, lo cual - dice el
argumento - introduce un tipo de explicación ajeno a las ciencias físicas. Es cuestionable que
muchas de las explicaciones, generalmente incompletas, que se ofrecen para las acciones
humanas, implican referencia a propósitos y motivos; pero, ¿acaso esto las hace
fundamentalmente distintas de las explicaciones causales de la física y la química? Una
diferencia que se sugiere por sí sola reside en la circunstancia de que en la conducta motivada,
el futuro parece afectar el presente de una manera que no se encuentra en las explicaciones
causales de las ciencias físicas. Pero es evidente que cuando la acción de una persona está
motivada, digamos, por el deseo de alcanzar cierto objetivo no es el hecho futuro, aún
inadvertido, de obtener esa meta lo que determina su conducta presente, puesto que en
realidad la meta bien pudiera no alcanzarse nunca, antes bien, digámoslo crudamente, es a) su
deseo, presente antes de la acción, de alcanzar ese objetivo particular, y b) su creencia,
también presente antes de la acción, de que tal y cual curso de acción tenga probablemente el
efecto deseado. Por consiguiente, los motivos y las creencias determinantes deben clasificarse
entre las condiciones antecedentes de una explicación motivacional, y aquí no existe diferencia
formal alguna entre la explicación causal y motivacional.
Tampoco constituye una diferencia esencial entre ambas clases de explicación, el hecho de que
los motivos sean inaccesibles a la observación directa de un observador exterior, porque los
factores determinantes que se aducen en las explicaciones físicas, con mucha frecuencia
resultan inaccesibles a la observación directa. Este es el caso, por ejemplo, cuando se señalan
cargas eléctricas opuestas para explicar la atracción mutua de dos bolas de metal. La presencia
de esas cargas, aunque escapa a la observación directa, se la puede investigar mediante
diversas pruebas indirectas, y eso es suficiente para garantizar el carácter empírico del
enunciado explicativo. De manera similar, es posible indagar la presencia de ciertas
motivaciones solamente por métodos indirectos, lo cual puede incluir referencias a la
expresión lingüística del sujeto estudiado, a los deslices de la lengua o de la pluma, etc.; pero
hasta tanto estos métodos sean "determinados funcionalmente" con razonable claridad y
precisión, no habrá diferencia esencial, en este aspecto, entre la explicación motivacional y la
explicación causal, en física.
Un riesgo potencial en la explicación apoyada por motivos reside en el hecho de que el método
conduce por sí solo a la fácil construcción de explicaciones ex post facto que carecen de fuerza
predictiva. Una acción a menudo se explica atribuyéndola a motivos que se conjeturan sólo
después que la acción se ha llevado a cabo. Mientras este procedimiento no es de por sí
objetable, su solidez requiere que 1) los supuestos motivacionales en cuestión puedan
comprobarse, y 2) que se disponga de leyes generales adecuadas que conduzcan al poder
explicativo hacia los motivos supuestos. El descuido de estos requisitos con frecuencia priva a
la explicación motivacional declarada, de su significación cognitiva. Algunas veces, la
explicación de un acto en función de los motivos del agente se considera como una clase
especial de explicación teleológica. Como ya se señaló antes, la explicación motivacional, si se
formula adecuadamente, conforma las condiciones de la explicación causal, de modo que el
término "teleológica" es inadecuado si se quiere significar ya un carácter no causal de la
explicación, ya una determinación peculiar del presente por el futuro. No obstante, si se tiene
presente esta condición, el término "teleológico" puede considerarse en ese contexto como
referido a explicaciones causales en las cuales algunas de las condiciones antecedentes son
motivos del agente cuyos actos habrá que explicar.
Las explicaciones teleológicas de esta clase deben diferenciarse de otro tipo de más vasto
alcance, que ha sido considerado por ciertas escuelas filosóficas, indispensable especialmente
en biología. Consiste en explicar las características de un organismo remitiéndolas a ciertos
fines o propósitos, a cuyas características dicen servir. En contraposición a los casos que
examinamos antes, no se presume aquí que el organismo persiga los fines, sea consciente o
subconscientemente. Así, para explicar el fenómeno del mimetismo, se dice que éste sirve al
propósito de proteger al animal con él dotado de ser descubierto por sus perseguidores, y que
así tiende a conservar la especie. Antes de que pueda apreciarse la fuerza potencial explicativa
de las hipótesis teleológicas de este tipo, debe aclararse su significado. Si de algún modo
intentan expresar la idea de que los propósitos a que se refieren son inherentes al plan del
universo, entonces es obvio que no pueden comprobarse empíricamente y por lo tanto violan
el requisito (R3) de la sección 2. Sin embargo, en ciertos casos, las afirmaciones acerca de los
propósitos de las características biológicas pueden trasladarse a enunciados de terminología
teleológica que afirmen que esos rasgos funcionan de manera específica, imprescindible, para
conservar vivo al organismo o para preservar la especie. El intento de afirmar con exactitud el
significado de la aseveración anterior - o la similar de que si no fuera por esas características,
dejando invariables las demás circunstancias, el organismo o la especie no sobrevivirían - se
enfrenta con dificultades considerables. Aunque supusiéramos que los enunciados biológicos
de forma teleológica pudieran traducirse adecuadamente en enunciados descriptivos sobre la
función conservadora de vida de ciertas características biológicas, es obvio que 1) en estos
contextos no es esencial el empleo del concepto de intención, puesto que el término puede
eliminarse de esos enunciados por completo, y 2) los supuestos teleológicos, aunque dotados
ahora de contenido empírico, no pueden servir como principios explicativos en los contextos
comunes. Por ejemplo, el hecho de que determinada especie de mariposa posea un tipo
particular de colorido no puede inferirse y, por ende, explicarse a partir de esa enunciación de
que ese tipo de color tiene el efecto de proteger las mariposas de las aves que las persiguen ni
tampoco puede inferirse la presencia de glóbulos rojos en la sangre humana del enunciado de
que tengan la función específica de asimilar oxígeno, esencial para la conservación de la vida.
Una de las razones de la perseveración de las consideraciones teleológicas en biología, reside
probablemente en lo fructífero del enfoque teleológico como recurso heurístico; indagaciones
biológicas que estaban motivadas psicológicamente por una orientación teleológica, por un
interés en los objetivos naturales han conducido con frecuencia a importantes resultados que
pueden formularse con terminología no teleológica, y que acrecientan nuestro conocimiento
científico de las conexiones causales entre los fenómenos biológicos. Otro aspecto que atrae la
atención hacia las consideraciones teleológicas es su carácter antropomórfico. Una explicación
teleológica tiende a hacemos sentir que verdaderamente "comprendemos" el fenómeno en
cuestión porque está explicado en función de propósitos, con los cuales estamos familiarizados
por nuestra propia experiencia de conducta intencional. Pero es importante distinguir aquí
entre la comprensión en el sentido psicológico de una sensación de familiaridad empática, y la
comprensión en el sentido teórico o cognitivo de exhibir el fenómeno que se debe explicar
como un caso especial de cierta regularidad general. La frecuente insistencia en que la
explicación significa reducir algo desconocido a ideas o experiencias familiares, conduce por
cierto a error. Pues si bien algunas explicaciones científicas tienen este efecto psicológico, en
modo alguno es universal: la libre caída de un cuerpo físico puede decirse que es un fenómeno
más familiar que la ley de gravedad, mediante la cual puede explicarse; y con toda seguridad
las ideas básicas de la teoría de la relatividad resultarán, para muchos, menos familiares que
los fenómenos que explican la teoría. La "familiaridad" del explanans no sólo no es necesaria
para una explicación seria como acabamos de señalar, sino que tampoco es suficiente. Esto se
demuestra en una cantidad de casos en que el explanans propuesto suena sugestivamente
familiar, pero un examen más detenido prueba ser una mera metáfora, o que carece de
capacidad para verificarse, o que no incluye leyes generales y, por lo tanto, no tiene poder
explicativo. Un ejemplo que viene al caso es el intento neovitalista de explicar los fenómenos
biológicos con referencia a una entelequia o fuerza vital. El punto crucial no es aquí cómo se ha
pretendido algunas veces el hecho de que las entelequias no puedan verse u observarse
directamente; pues también esto es verdad respecto de los campos gravitacionales y; no
obstante, es esencial referirse a esos campos para explicar varios fenómenos físicos. La
diferencia decisiva entre ambos casos reside en que la explicación física proporciona: 1)
métodos de prueba, aunque indirectos, de aseveraciones sobre campos gravitacionales, y 2)
leyes generales relacionadas con la fuerza de los campos gravitacionales y la conducta de los
objetos que se mueven en ellos. Las explicaciones por medio de entelequias no satisfacen
ninguna analogía de estas condiciones. No cumplir con esta primera condición comporta una
violación de (R3); hace inaccesibles a la comprobación empírica todos los enunciados sobre
entelequias y, en consecuencia, desprovistos de significación empírica. Faltar a la segunda
condición implica la violación de (R2). Despoja al concepto de entelequia de todo valor
explicativo, porque el poder explicativo nunca reside en un concepto sino en las leyes generales
dentro de las cuales funciona. Por consiguiente, no obstante la sensación de familiaridad que
evoca, el enfoque neovitalista no puede proporcionar comprensión teórica.
Las observaciones precedentes sobre la familiaridad y la comprensión pueden aplicarse, de
manera similar, al criterio sostenido por algunos pensadores de que la explicación - o la
comprensión - de las acciones humanas requiere una comprensión empática de las
personalidades de los sujetos. Esta comprensión de otra persona según el propio
funcionamiento psicológico puede ser un recurso heurístico útil en la búsqueda de principios
psicológicos generales capaces de proporcionar una explicación teórica; pero la existencia de
empatía por parte del científico no constituye una condición necesaria ni suficiente para la
explicación, o la comprensión científica, de ningún acto humano. No es necesaria, porque
algunas veces puede explicarse y predecirse en función de principios generales la conducta de
psicóticos o de gente que pertenece a culturas muy diferentes de la del científico, aun cuando
aquel que establece o aplica esos principios no pueda entender empáticamente a los sujetos. Y
la empatía no es suficiente para garantizar una explicación seria, puesto que puede existir un
fuerte sentimiento de empatía aun en ocasiones en que estamos completamente errados al
juzgar una personalidad dada. Además, como lo ha señalado Zilsel, la empatía conduce
fácilmente a resultados incompatibles; por ejemplo, cuando la población de una ciudad ha
estado sometida a bombardeos aéreos pesados durante mucho tiempo, en el sentido empático
podemos entender que se haya desmoralizado totalmente; pero con igual facilidad podemos
comprender también que haya desarrollado un espíritu de resistencia desafiante. Los
argumentos de este tipo a menudo parecen muy convincentes, pero son de carácter ex post
facto y carecen de significación cognitiva, a menos que se los complete con principios
explicativos verificables en forma de leyes o teorías. En consecuencia, la familiaridad con el
explanans, no importa si se logra mediante el uso de una terminología teleológica o de
metáforas neovitalistas o por otros medios, no indica el contenido cognitivo ni la fuerza
predictiva de una explicación propuesta. Además, el grado en que una idea es considerada
familiar varía de una persona a otra y de un momento a otro, y un factor psicológico de este
tipo no puede servir de normas para evaluar el mérito de una explicación propuesta. El
requisito decisivo para toda explicación sólida es que subsuma el explanandum en leyes
generales.
(E2) La totalidad de los 16 cubos de hielo de la bandeja del refrigerador tienen una temperatura
inferior a 10 grados centígrados
Podemos conceder este punto; pero existe una diferencia esencial entre E1, por un lado, y las
leyes de Kepler y también E2, por el otro; sabemos que estas últimas, si bien de extensión finita,
son consecuencia de leyes más inclusivas cuyo alcance no es limitado, mientras que éste no es
el caso de E1. Adoptando un procedimiento sugerido recientemente por Reichenbach
distinguiremos, por lo tanto, las leyes fundamentales de las derivadas. Denominaremos ley
derivada a un enunciado que tenga carácter universal y se origine de ciertas leyes
fundamentales. Las leyes fundamentales deben satisfacer una determinada condición: alcance
ilimitado. Sería excesivo, no obstante, negar el estatus fundamental de la oración legal a todos
los enunciados que afirman, en efecto, sólo acerca de una clase finita de objetos, porque ello
excluiría una oración tal como «todos los huevos de petirrojo son de color azul verdoso»,
puesto que, presumiblemente, la clase de todos los. huevos de petirrojo (pasados, presentes y
futuros) es finita. Pero otra vez vemos aquí una diferencia esencial entre esta oración y,
digamos, E1. Para
establecer la finitud de la clase de los huevos de petirrojo se requiere conocimiento empírico,
mientras que si se concibe la oración E1 de manera intuitivamente ilegal, los términos «cesta b»
y «manzana» se comprenden como que implican la finitud de la clase de las manzanas que
están en la cesta en el momento t. De esta manera, y por así decirlo, el significado de sus
términos constitutivos, por sí solo sin información fáctica adicional, implica que E1 tiene
extensión finita. Las leyes fundamentales, entonces, deberán interpretarse de modo que
satisfagan la condición de alcance no limitado; la formulación de esta condición remite a lo que
está implicado en «el significado» de ciertas expresiones.
En nuestra búsqueda de una caracterización general de las oraciones legales, tomaremos ahora
en cuenta un segundo indicio que proporciona la oración E1. Además de violar la condición de
extensión no limitada, tiene la peculiaridad de referirse a un objeto particular, la cesta b; y al
parecer, esto también viola el carácter universal de una ley. La restricción que parece indicarse
aquí debiera aplicarse nuevamente sólo a las oraciones legales fundamentales, porque un
enunciado general verdadero sobre la caída libre de los cuerpos físicos en la Luna, si bien se
refiere a un objeto particular, constituiría aún una ley, aunque fuese derivada. En consecuencia,
parece razonable estipular que una oración legal fundamental debe ser de forma universal y no
ha de contener ocurrencias esenciales (es decir, no eliminables) de designaciones de objetos
particulares. Pero, en este punto se presenta una dificultad especialmente seria. Considérese la
oración:
(E3) Todo lo que sea una manzana de la cesta b en el momento t o una muestra de óxido
férrico, será rojo.
Si empleamos una expresión especial, por ejemplo, <<x es una manfer>> como sinónimo de
<<x es o bien una manzana de la cesta b en t o bien una muestra de óxido férrico>>, entonces
el contenido de E3 puede expresarse como sigue:
Introducción
El hombre no sólo quiere sobrevivir en el mundo, sino también mejorar su posición estratégica
dentro de él. Esto hace que sea importante poder hallar maneras confiables de prever cambios
en su ambiente y, si es posible, controlarlos para usarlos en su propio provecho. La formulación
de leyes y teorías que permiten la predicción de sucesos futuros se cuenta entre las más altas
realizaciones de la ciencia empírica; y la medida en la cual ellas responden al anhelo del
hombre de previsión y control la indica el vasto ámbito de sus aplicaciones prácticas que van
desde las predicciones astronómicas hasta los pronósticos meteorológicos, demográficos y
económicos, y desde la tecnología fisicoquímica y biológica hasta el control psicológico y social.
La segunda motivación básica de las indagaciones científicas del hombre es independiente de
tales preocupaciones prácticas. Reside en su pura curiosidad intelectual, en su profundo y
persistente deseo de conocer y de comprenderse a sí mismo y a su mundo. Tan intenso es este
deseo, que en ausencia de un conocimiento más confiable, a menudo se acude a los mitos para
llenar el abismo. Pero al mismo tiempo, muchos de esos mitos ceden el terreno a concepciones
científicas acerca del cómo y el porqué de los fenómenos empíricos.
Entendemos las expresiones <<ciencia empírica>> y <<explicación científica>> en un sentido
que abarca todo el ámbito de la investigación empírica, incluidas tanto las ciencias naturales y
sociales como la investigación histórica. Este uso amplio de las dos expresiones no pretende
prejuzgar sobre la cuestión referida a las semejanzas y diferencias lógicas y metodológicas
entre campos diferentes de la investigación empírica, sino indicar que los procedimientos
utilizados en esos campos diferentes deben ajustarse a ciertas normas básicas de objetividad.
De acuerdo con estas normas, las hipótesis y las teorías deben ser testeables con referencia a
elementos de juicio públicamente discernibles, y su aceptación estará siempre sujeta a la
condición de que puedan abandonarse si se encuentran elementos de juicio adversos o
hipótesis o teorías más adecuadas.
Podemos considerar una explicación científica como una respuesta a una pregunta
concerniente al porqué, por ejemplo: <<¿Por qué los planetas se mueven en órbitas elípticas,
uno de cuyos focos lo ocupa el Sol?>>, <<¿Por qué Hitler declaró la guerra a Rusia?>>. Hay
otras maneras de formular lo que llamaremos preguntas que piden una explicación: podemos
preguntar qué fue lo que condujo a Hitler a su funesta decisión. A veces se indica el objeto de
una explicación, o explanandum, mediante un sustantivo, por ejemplo, cuando pedimos una
explicación de la aurora boreal. Es importante comprender que este tipo de formulación sólo
tiene un significado claro siempre que se la pueda reformular en términos de una pregunta
<<por qué…?>>. Así, en el contexto de una explicación debe considerarse que la aurora boreal
se caracteriza por ciertos rasgos generales distintivos, cada uno de los cuales puede describirse
mediante una cláusula <<que…>>, por ejemplo: que sólo se la encuentra normalmente en
latitudes septentrionales bastante altas, que aparece intermitentemente, etc. Pedir una
explicación de la aurora boreal equivale a solicitar una explicación de por qué sus
manifestaciones se producen de la manera indicada y por qué éstas tienen características
físicas como las que acabamos de mencionar. En verdad, pedir una explicación sólo tiene un
significado claro si se entiende qué aspectos del fenómeno en cuestión deben explicarse; y, en
este caso, el problema que se quiere explicar puede también expresarse en la forma <<¿por
qué se da el caso de que p?>>, donde el lugar de <<p>> está ocupado por un enunciado
empírico que especifica el explanandum. Las preguntas de este tipo serán llamadas preguntas
sobre el porqué que piden una explicación.
Sin embargo, no todas las preguntas sobre el porqué piden explicaciones. Algunas de ellas
solicitan razones en apoyo de una aserción. Enunciados tales como <<debe haber muerto de
un ataque al corazón>>, <<a Platón no le habría gustado la música de Stravinsky>> podrían
provocar la pregunta <<¿por qué debe ser así?>>, que pide no una explicación, sino pruebas,
fundamentos o razones en apoyo de la aserción expresada. Las preguntas de este tipo serán
llamadas preguntas que piden razones o preguntas epistémicas. Expresarlas en la forma <<¿por
qué debe darse el caso de que p?>> es engañoso; es más adecuado mediante una formulación
tal como <<¿por qué debe creerse que p?>> o <<¿qué razones hay para creer que p?>>.
Una pregunta sobre el porqué que pide una explicación normalmente presupone que el
enunciado que ocupa el lugar de <<p>> es verdadero, y solicita una explicación del hecho,
suceso o estado de cosas presunto descrito por él. Una pregunta epistémica sobre el porqué no
presupone la verdad del enunciado correspondiente, sino que, por el contrario, solicita razones
para creer en su verdad. Una respuesta adecuada a la primera, pues consistirá en ofrecer una
explicación de un presunto fenómeno empírico, mientras que una respuesta adecuada a la
segunda ofrecerá razones que convaliden o justifiquen un enunciado. A pesar de estas
diferencias en las presuposiciones y los objetivos, hay importantes conexiones entre los dos
tipos de preguntas; toda respuesta adecuada a una pregunta que pide una explicación, <<¿por
qué se da el caso de que p?>>, también suministra una respuesta potencial a la
correspondiente pregunta epistémica <<¿qué fundamentos hay para creer que p?>>.
El Círculo de Viena
Introducción
Aunque tenga a Hume y a Comte como predecesores lejanos, el Círculo de Viena es una
escuela netamente alemana en su origen. Tras la crítica del materialismo mecanicista por parte
del neokantismo de Helmholtz y Hermann Cohen con su escuela de Marburgo, el físico Ernst
Mach derivó hacia un neopositivismo que negaba todo tipo de elementos a priori en las
ciencias empíricas. Paralelamente, la física teórica iba a dar un giro fundamental con la
aparición de la teoría einsteiniana de la relatividad y de la mecánica cuántica, cambios que
tuvieron una influencia enorme en los neopositivistas. La incidencia del convencionalismo de
Poincaré y Duhem también se dejó sentir en el Círculo de Viena, al igual que la creación de la
lógica matemática, perfectamente configurada a partir de la publicación de los Principia
Mathematica por Russell y Whitehead en 1905.
Ya en 1907, el economista Neurath había fundado un grupo de trabajo con el matemático Hahn
y el físico Frank, que se ocupaba de filosofía de la ciencia, término netamente opuesto en
Alemania a la Naturphilosophie, en la medida en que rechazaba la especulación metafísica
sobre las ciencias de la naturaleza, y propugnaba el contacto directo de los filósofos con los
científicos. En este sentido, la publicación del Tractatus Logico-Philosophicus de Wittgenstein
en 1921, con su célebre tesis según la cual <<el mundo es la totalidad de los hechos, no de las
cosas>>, reforzó notablemente las ideas neopositivistas, máxime por cuanto Wittgenstein
ofrecía un enlace perfectamente adecuado entre la tradición empirista y la nueva lógica
matemática: Schröder y Hilbert, junto con la Escuela de Varsovia, pasaron a ser referencias
obligadas desde la misma constitución del Círculo de Viena.
Momento importante fue la publicación en 1923 de Der logische Aufbau der Welt por Carnap.
La distinción de Russell entre hechos atómicos y moleculares, con la paralela distinción entre
proposiciones atómicas y moleculares, permitía aplicar el aparato de la lógica de enunciados a
las ciencias con contenido empírico. Por este motivo pasó a ser habitual la denominación
empirismo lógico o, incluso, atomismo lógico, junto a otras como empirismo científico o
empirismo consistente. En 1926 surge la Sociedad de Ernst Mach, formada por este mismo
grupo
de pensadores, los cuales a partir del Manifiesto de 1929 pasan a denominarse definitivamente
Círculo de Viena. Con ellos vino a confluir la Escuela de Berlín, formada en torno a Hans
Reichenbach, y que contó con figuras como Richard van Mises y posteriormente Carl Hempel.
También el conductismo norteamericano, por lo que se refiere a la psicología, acabó
coincidiendo con las posturas básicas del Círculo, motivo por el cual en 1929 ya estaba en
condiciones de organizar su primer congreso internacional en Praga, que tuvo continuidad en
las reuniones de Konigsberg, Copenhague, otra vez Praga, Paris y Cambridge.
En 1930 salió la revista Erkenntnis, bajo la dirección de Carnap y de Reichenbach. Asimismo se
publicaron una serie de monografías bajo el lema «Ciencia unificada», y se logró llegar a la fase
de máxima actividad en la primera mitad de la década de los treinta. Pero el ascenso del
nazismo, junto a las diversas vicisitudes personales de miembros relevantes del Círculo (Carnap
y Frank pasaron a ser catedráticos en Praga, Feigl se trasladó a Iowa, y Hahn murió en 1934),
señalaron el principio del fin del Círculo de Viena. La condición de judíos de muchos de sus
miembros contribuyó en buena medida a que comenzasen a pensar en salir de los países de
habla alemana, y así Carnap se estableció en Chicago en 1936, y Neurath marchó a Holanda
tras el asesinato de Moritz Schlick en 1938, a manos de un perturbado. Neurath trató de
continuar la publicación de Erkenntnis en La Haya, bajo el título de The Journal of Unified
Science, y Carnap sacó a la luz en los Estados Unidos la Internacional Enciclopedy for the
Unified Science. Finalmente, el propio Feigl hubo de huir a los EE.UU., y el nazismo disolvió los
grupos de Berlín y de Varsovia, con lo cual el Círculo de Viena dejó de existir como tal.
Esto no significa que su influencia decayera. Muy al contrario. La emigración de varios de sus
miembros a los Estados Unidos y a otros países, prestigiados por la aureola de perseguidos por
el nazismo, permitió una rápida internacionalización de sus teorías, principalmente en los
países y universidades anglosajones. Ello dio lugar, si se quiere, a una segunda fase del
empirismo lógico. Aquí adoptaremos el criterio de distinguir estas dos etapas, tanto por
motivos históricos como por las diferencias entre las posturas del Círculo de Viena
propiamente dicho y de lo que más tarde se ha venido en llamar concepción heredada.
La ciencia unificada
El proyecto institucional -y también teórico- común a casi todos los miembros del Círculo de
Viena es la elaboración de la Enciclopedia para la ciencia unificada. Dentro de la tradición de
Mach, Avenarius, etc., sus posturas son netamente contrarias a la metafísica, y muy
particularmente a tendencias como las de Hegel o Heidegger. Carnap escribió el célebre
artículo «La superación de la metafísica mediante el análisis lógico del lenguaje», afirmando
que «en el campo de la metafísica, el análisis lógico ha conducido al resultado negativo de que
las pretendidas proposiciones de dicho campo carecen totalmente de sentido». Los textos
metafísicos clásicos están constituidos por pseudoproposiciones, totalmente estériles desde el
punto de vista del conocimiento científico. Según Carnap, en esas obras se encuentran dos
tipos de pseudoproposiciones: unas porque contienen palabras a las que con criterio erróneo
se supone un significado, y otras que están mal construidas sintácticamente. Lo que luego ha
llamado Hempel criterio empirista de significado, así como la inadecuación de la forma de las
proposiciones filosóficas a las prescripciones de la lógica matemática, permitieron al
positivismo lógico aplicar radicalmente la navaja de Ockham, descartando del pensamiento
científico numerosos conceptos y trabajos llevados a cabo por la filosofía especulativa.
El proyecto del Círculo estriba en conformar una filosofía científica. Las matemáticas (y la
lógica), así como la física, son los dos grandes modelos a los que debe tender toda forma de
discurso científico. El programa positivista de Comte en el siglo XIX debía ser culminado,
convirtiendo la biología, la psicología y la sociología en ciencias positivas. En la convocatoria de
la Preconferencia de Praga, en 1934, cuyo objeto era preparar el Primer Congreso Internacional
sobre Ciencia Unificada, este objetivo se señala como general para todas las ciencias: <<Hay
que tratar sobre los fundamentos lógicos de todos los ámbitos científicos, y no sólo de la
matemática y de la física>>. El tema del que iba a ocuparse inicialmente era <<Filosofía
científica», pero se modificó: «Congreso para la Unidad de las Ciencias». Se convocaba a
científicos de diversas disciplinas para reflexionar sobre la unidad de la ciencia y sobre la
manera de lograrla: los problemas lógico-sintácticos, los de la inducción y la probabilidad, las
aplicaciones de la lógica a otras disciplinas, la sociología científica y la historia de la ciencia eran
señalados expresamente como ámbitos de trabajo del Congreso. Pero, de hecho, la historia de
la ciencia fue muy poco investigada por el Círculo de Viena, que abundó, en cambio, en
trabajos sobre biología, psicología y semiótica, entendidas desde un punto de vista conductista.
Entre las distintas tendencias existentes dentro del Círculo en relación con dicha unificación de
la ciencia, acabó imponiéndose el fisicalismo, formulado por Otto Neurath, y aceptado
finalmente por Carnap, cuyo estricto empirismo e inductivismo le había acercado en un
principio
al solipsismo. El fisicalismo se interesa por los enunciados observacionales, que serían la base
de cada una de las ciencias positivas. Al comparar la forma lógica de dichos enunciados (por
ejemplo, Karl observa y la máquina fotográfica saca fotos) se comprueba que es la misma: la
unificación de la ciencia debe llevarse a cabo reduciendo todas las proposiciones
observacionales a lenguaje fisicalista, con lo cual se mostraría que existe un núcleo común a
todas las ciencias positivas. La reducción a lenguaje fisicalista es, pues, el medio de llevar a
cabo el programa para la unificación de la ciencia, y para ello hay que partir siempre de
enunciados empíricos, y preferentemente observacionales.
El lenguaje fisicalista
Verificación
Las expresiones y fórmulas de la lógica y de las matemáticas no han de verificarse, por ser
analíticas. Pero el resto de los enunciados científicos ha de ser comprobable en la realidad, y a
poder ser por observación.
Wittgenstein estableció en el Tractatus una dependencia lógica entre los enunciados científicos
y las proposiciones elementales (cuyo equivalente en el Círculo de Viena son las protocolares):
<<La proposición es una función de verdad de la proposición elemental>>.
Pero este criterio se reveló excesivamente estricto: no es posible inferir los enunciados
generales a partir de los atómicos. Y desde el punto de vista de la metodología de la ciencia, las
leyes científicas, que son proposiciones cuantificadas universalmente, constituyen
componentes fundamentales en una teoría científica.
El Círculo de Viena osciló entre la verificación y la simple confirmación de dichos enunciados.
En su primera época, aún creía en la posibilidad de una verificación concluyente de los
enunciados científicos, a partir de las proposiciones elementales. Pero posteriormente fue
derivando hacia tesis menos estrictas, aun afirmando, como sucede con Schlick, que el último
paso de verificación ha de consistir en observaciones o en percepciones de los sentidos.
Los enunciados generales, las leyes científicas y, muy en particular las teorías, no pueden ser
verificadas directamente, confrontándolas con la empiria. Lo que sí puede hacerse es extraer
las
consecuencias lógicas concretas de una ley o de una teoría y comprobar que, efectivamente, la
experiencia ratifica dichos resultados. Este procedimiento de verificación, que en realidad
nunca
es total respecto de la ley o de la teoría, ya que siempre hay otras consecuencias que todavía
no han sido verificadas, reviste particular importancia en el caso de las predicciones. Para el
Círculo de Viena, y posteriormente para otros muchos filósofos de la ciencia, lo esencial del
saber científico es su capacidad de predecir exactamente fenómenos fisiconaturales. Al ser
verificada la corrección de una determinada predicción, las teorías y las leyes, si no verificadas,
quedan al menos confirmadas, aunque sea parcialmente. El astrónomo Leverrier, por ejemplo,
predijo la existencia de un octavo planeta en el sistema solar, Neptuno, como una consecuencia
que se derivaba lógicamente de la mecánica newtoniana. Años después, el 23 de septiembre
de 1846, otro astrónomo, J. G. Galle, comprobó por observación que, efectivamente, el planeta
predicho
existía. Y otro tanto sucedió ulteriormente con Plutón. Para el empirismo lógico, estos logros
son paradigmáticos de lo que debería ser la metodología científica. No puede decirse que la
teoría haya quedado totalmente verificada, pero sí tiene lugar una confirmación objetiva de
dicha teoría. Consecuentemente, una determinada ley universal, o teoría, ha de reducirse por
la vía de la inferencia lógica a sus consecuencias empíricas concretas y determinadas: una vez
llevada a cabo esta labor, propiamente deductiva (y común a las ciencias formales), tiene lugar
lo más propio de las ciencias empíricas: la confrontación de dichas predicciones con la
experiencia, que puede confirmar o no lo previsto. La verificabilidad experimental de sus
predicciones caracterizaría a la ciencia frente a otros tipos de saber humano.
Verificar, al decir de Kraft, es «comprobar la conformidad de un hecho predicho con uno
observado». Una teoría científica posee contenido empírico porque es capaz de predecir
hechos concretos y perceptibles; es aceptable en la medida en que sus predicciones hayan sido
confirmadas empíricamente.
Ahora bien, estudios ulteriores han mostrado que los procedimientos de verificación no son
metodológicamente tan inocuos como se supuso en el Círculo de Viena. Sucede con frecuencia,
por ejemplo, que los aparatos de observación y de medición presupongan por su propia
construcción algunas otras teorías científicas, e incluso la teoría misma que se trata de verificar,
con lo cual se incurriría en cierto círculo vicioso, desde el punto de vista metodológico, en los
procesos de verificación empírica. Los términos teóricos (por ejemplo, masa, electrón, etc.)
sólo son traducibles a términos directamente observacionales por medio de una serie de
artilugios científicos que genéricamente suelen denominarse reglas de correspondencia. Esta
cuestión, desborda el marco epistemológico del Círculo de Viena, supuso una fuerte objeción a
sus postulados observacionales como criterios de verificación empírica.
Aunque basándose en otras argumentaciones, ya en el propio Círculo de Viena surgieron
objeciones al criterio wittgensteiniano de verificación concluyente (por derivación lógica a
partir de proposiciones elementales) e incluso contra la propia noción de verificación. Neurath
y Hempel, por ejemplo, afirmaron que las proposiciones sólo pueden ser confrontadas con
otras proposiciones, y no con hechos: de ahí su insistencia en la delimitación de los enunciados
protocolares como base empírica de una determinada teoría.
La cuestión de la verificación y de la confirmación, por otra parte, está ligada a un tema
fundamental para la filosofía de la lógica: la teoría de la verdad. La concepción clásica de la
verdad, presente ya en Parménides, pero formulada de manera explícita por Aristóteles, la
conceptuaba como una adecuación entre el decir y el ser: decir las cosas como son era
sinónimo de discurso verdadero. El empirismo lógico renunció a la categoría de ser, así como a
la de cosa, por metafísicas, sustituyéndolas por la de hechos; pero desde el punto de vista de la
concepción de la verdad, siguió adherido al criterio clásico de la adequatio o correspondencia
entre proposiciones y hechos. Los enunciados científicos pueden ser verificados en la medida
en que se correspondan a los hechos observados o, si se prefiere, las observaciones empíricas
han de concordar con las predicciones realizadas por los científicos. El criterio de verificación
sufrió, por tanto, nuevos embates desde los defensores de otro tipo de teorías sobre la verdad
científica, como la teoría de la coherencia o la concepción pragmatista de la verdad. Todo lo
cual dio lugar a diversas modificaciones de dicha noción de verificación.
Una de las distinciones que, en etapas ulteriores, fue generalmente aceptada por los miembros
del Círculo es la que diferencia verificación y verificabilidad. Una proposición es verificable
cuando, al menos en principio, es posible llevar a cabo experimentos y observaciones empíricas
concordes con lo dicho en la proposición. En cada momento, no todas las proposiciones
empíricas han sido efectivamente verificadas, pero sí lo han sido algunas, y las demás son
verificables en principio. Esta corrección, muy importante, matizaba el criterio de cientificidad
inicial. Schlick habló de una comprobabilidad en principio, mientras que Carnap prefería el
término de verificabilidad en principio. Asimismo Ayer introdujo otro matiz, al distinguir entre
verificabilidad en sentido fuerte, cuando una proposición puede quedar establecida
concluyentemente por medio de la experiencia, y verificabilidad en sentido débil, cuando la
experiencia sólo permite determinar que esa proposición es probable en un grado lo
suficientemente elevado. Surge así un nuevo concepto de verificación, cuyos orígenes están en
Reichenbach y en el propio Carnap: el probabilístico, ligado a las investigaciones que se
llevaron a cabo en esta época sobre lógica inductiva y lógica probabilitaria.
Inducción y probabilidad
Tal y como ha mostrado Rivadulla, las tesis de Carnap fueron evolucionando, desde sus
posiciones verificacionistas iniciales hacia una afirmación de la confirmación progresiva, e
incluso de un grado de confirmación de los enunciados empíricos. En 1936 ya admitía la
confirmabilidad como criterio, y a partir de 1949 va a desarrollar su teoría del grado de
confirmación, que enlazará el empirismo inicial del Círculo de Viena con la lógica probabilitaria.
La confirmación de un enunciado, según Carnap, es estrictamente lógica: los datos
observacionales han de ser confrontados lógicamente con las consecuencias que se derivan de
una determinada ley o teoría. Si en un momento dado disponemos de una serie de datos, oi,
obtenidos por observación, y de una serie de hipótesis explicativas de esos datos, hi, hemos de
determinar la probabilidad de cada una de las hipótesis hi con respecto a las observaciones con
que se cuenta en un momento dado. La comparación entre las probabilidades respectivas, que
definen el grado de confirmación de cada hipótesis, nos permite elegir como hipótesis
confirmada aquella que, para unos determinados datos observados, posee mayor grado de
probabilidad. Considerar como admisible una hipótesis y como descartable otra, es una
decisión estrictamente lógica; pero en dependencia de una lógica probabilitaria, que no lleva a
elegir la hipótesis verificada o totalmente comprobada, sino aquella que, en relación con las
demás y con los datos observacionales, tiene un mayor grado de probabilidad.
Surge así el concepto de grado de confirmación de un enunciado científico, que conlleva la
previa cuantificación de la noción de confirmación: lo cual es posible apelando a la teoría de la
probabilidad. Una hipótesis posee una probabilidad inductiva, que va aumentando o
disminuyendo según las nuevas observaciones confirmen o no dicha hipótesis. El valor de una
hipótesis va ligado al mayor o menor número de datos empíricos conformes a dicha hipótesis.
Consiguientemente, el científico admite unas u otras hipótesis en función del aumento de su
grado de confirmación. Hay una lógica inductiva, de base netamente probabilista, subyacente a
las teorías empíricas. Lejos ya del criterio wittgensteiniano de la verificación concluyente, por
vía deductiva a partir de unas proposiciones elementales cuya verdad ha sido sólidamente
establecida por la vía de la observación, en los últimos desarrollos del Círculo de Viena se
acaba apelando a una lógica inductiva, que a su vez Carnap intentó axiomatizar en forma de
cálculo lógico. En la obra ya mencionada de Rivadulla pueden seguirse las sucesivas tentativas
de Carnap en este sentido.
En cualquier caso, el empirismo lógico acabó confluyendo en una afirmación de la inducción
como el método principal de las ciencias empíricas. La lógica inductiva permitiría fundamentar
el criterio de significación empírica, inicialmente basado en la verificabilidad observacional, y
finalmente en el grado probabilístico de confirmación de una determinada hipótesis.
Entretanto, y desde otras posturas, se hacían críticas de principio a las tesis del Círculo de Viena
y de sus epígonos. Así sucedió, en particular, con Popper, quien va a orientar la metodología
científica en un sentido muy distinto.
La concepción heredada
Introducción
A partir de la dispersión del Círculo de Viena, el programa del empirismo lógico siguió
desarrollándose, principalmente en los países anglosajones, donde fue la tradición dominante
hasta 1950. La Lógica de la investigación científica de Popper, que ya había sido publicada,
tardó en adquirir influencia, debido al predominio institucional del verificacionismo y del
inductivismo frente al falsacionismo y deductivismo popperianos. Cabe afirmar, por tanto, que
todos los avances habidos en filosofía de la ciencia hasta prácticamente el final de la década de
los cincuenta tuvieron lugar en la estela del positivismo lógico, convenientemente corregido y
mejorado por diversas influencias, como la de la filosofía analítica oxoniense o el pragmatismo
norteamericano. El análisis de las teorías por medio de la lógica fue matizándose y haciéndose
más complejo, tanto por la influencia de la filosofía del lenguaje como por el propio desarrollo
de la lógica, y en concreto de la metamatemática. Las aportaciones de Tarski contribuyeron a
dichas modificaciones del positivismo lógico. La crítica epistemológica, por su parte, obligó a
renunciar al empirismo ingenuo del Círculo de Viena.
Pero, en cualquier caso, durante más de veinte años los filósofos de la ciencia estuvieron
implícitamente de acuerdo en una serie de postulados básicos sobre las teorías científicas a los
que, a partir del momento en que los críticos de dichas presuposiciones comenzaron a llevar a
cabo sus ataques, Putnam englobó en 1962 bajo el apelativo de concepción heredada. Carnap,
Hempel y Nagel son nombres claves en el desarrollo de dicha concepción, pero también el
operacionalismo de Brigdman o el conductismo de Skinner, junto a una pléyade de científicos
que, tanto en las ciencias naturales como en las sociales, participaban de facto en dicha
epistemología. El mismo Popper, uno de los primeros críticos de la concepción heredada,
admitía algunas de sus tesis principales.
A partir de los años cincuenta comienza a producirse una serie de críticas concretas sobre
diversas afirmaciones de la concepción heredada: así las de Quine y Putnam sobre la distinción
analítico/sintético; las de Chisholm y Goodman en torno a los condicionales contrafácticos y a
la tesis de la extensionalidad de las leyes científicas; las de Rapoport, Kaplan y Achinstein en
relación con la axiomatización de las teorías científicas; las de Putnam y Achinstein
nuevamente, pero esta vez con respecto al problema clave de la oposición entre lo
observacional y lo teórico, o la de Patrick Suppes al analizar la noción de reglas de
correspondencia. Todas estas críticas y dificultades, junto a las que los propios defensores de la
concepción heredada, habían encontrado, como el dilema del teórico de Hempel, la solución
Ramsey a la cuestión de los términos teóricos; o los propios progresos de Carnap, en su
desarrollo de la lógica probabilitaria, dieron lugar a que en la década de los sesenta hubiera
una profunda crisis de confianza en las tesis de la concepción heredada, apareciendo incluso
las primeras alternativas a la misma debidas a Popper, Hanson, Putnam y Toulmin. Todo este
proceso de debilitamiento de sus postulados culminó con la publicación por Kuhn de La
estructura de las revoluciones científicas (1962), en la que se echaba por tierra la mayor parte
de las tesis de dicha concepción, fundamentalmente por ahistóricas y desligadas de la ciencia
real.
El debate cristalizó en un simposio celebrado en Urbana en 1969, cuya convocatoria refleja
bien las tesis centrales de la concepción heredada y también da cuenta de las profundas
críticas de que se les ha hecho objeto: «Tradicionalmente, los filósofos de la ciencia han
construido teorías científicas como cálculos axiomáticos, en las cuales a los términos y
enunciados teóricos se les da una interpretación parcial y observable por medio de reglas de
correspondencia. Recientemente, la pertinencia de este análisis ha sido discutida por un buen
número de filósofos, historiadores de la ciencia y científicos». El simposio debatió a fondo
dichas cuestiones, y con ello levantó el acta de defunción de la concepción heredada, que a
partir de ese momento quedó abandonada por casi todos los epistemólogos.
Una de las ideas más ampliamente aceptadas por todos los defensores de la concepción
heredada, implícita o explícitamente, es la propuesta por Reichenbach en 1938. No es lo
mismo cómo se llega a un resultado científico y cómo dicho resultado se expone y justifica
luego ante el público. En el caso de Kepler, mencionado expresamente por Reichenbach, la
analogía entre la Santísima Trinidad y el sistema solar le sirvió para desarrollar sus
investigaciones; pero la teoría final, empíricamente justificada, nada tenía que ver con
especulaciones teológicas. De ahí que, según Reichenbach, las cuestiones relativas al contexto
en que se verifican los descubrimientos científicos no son objeto de la epistemología ni de la
filosofía de la ciencia, sino de la psicología y de la historia. Lo único que interesa a la filosofía de
la ciencia es el resultado final, la manera en que son expuestas y justificadas las teorías cuando
ya constituyen un producto elaborado.
Durante muchos años esta distinción, así como la exclusión del contexto de descubrimiento de
la reflexión epistemológica, fue generalmente admitida por los filósofos de la ciencia. La
influencia de las investigaciones metamatemáticas de la escuela de Hilbert fue, en este sentido,
muy grande. No sólo había que partir de las teorías tal y como habían quedado finalmente
articuladas por sus descubridores o divulgadores, tomando como referencia principal, por
ejemplo, los libros de texto o las grandes obras de los científicos, sino que incluso había que
intentar un paso más, reduciéndolas a sistemas formales al modo de las teorías matemáticas:
la
aritmética y la teoría de conjuntos reducidas a la lógica por autores como Frege, Zermelo,
Fraenkel, Von Neumann, Russell, etc.; la geometría axiomatizada por Hilbert; el cálculo de
probabilidades por Kolmogorov; la teoría de números por Gentzen, etc. Como consecuencia de
esta concepción, los estudios de historia de la ciencia y las primeras tentativas de hacer una
historia social de la ciencia, o posteriormente una sociología de la ciencia (propuesta por
Merton ya en 1945), quedaban separados de la filosofía de la ciencia. Para la concepción
heredada, la elaboración de una epistemología general de la ciencia sólo podía hacerse a partir
de los resultados finales de la investigación científica, investigando su estructura sintáctica, así
como sus relaciones con la experiencia. El origen histórico de los conceptos, leyes y teorías
científicas, y el modo en que sus descubridores habían ido llegando a ellos, era cuestión de los
historiadores de la ciencia. Los epistemólogos habían de trabajar a continuación, partiendo de
esas construcciones científicas como algo ya elaborado y terminado, presto a confrontarse con
la experiencia.
En el seno mismo del positivismo surgieron algunas tendencias críticas al respecto, en buena
medida por influencia del segundo Wittgenstein, y concretamente de sus Philosophische
Untersuchungen, traducidas al inglés en 1953. La insistencia en el uso del lenguaje científico,
así como en la filosofía psicológica por parte de Wittgenstein, supuso un primer revulsivo en
contra de la distinción de Reichenbach, sobre todo para autores como Hanson y Toulmin.
Surgió así una tendencia a considerar a las teorías científicas como auténticas
Weltsanschauungen o concepciones del mundo, en la medida en que todo lenguaje lo es. La
tarea de la filosofía de la ciencia pasaría así a convertirse en el estudio de las especificidades de
las Weltsanschauungen científicas, en función de los sistemas lingüístico-conceptuales que las
caracterizan, incluyendo el uso de dichos sistemas, con sus aceptaciones y rechazos. Surgían así
las primeras tendencias a interrelacionar la filosofía de la ciencia con los estudios de historia y
sociología de la ciencia, que posteriormente culminarían en la obra de Kuhn.
Pero estas primeras tentativas apenas afectaron a la mayoría de los defensores de la
concepción heredada, que permanecieron fieles a la distinción estricta entre la fase del
descubrimiento y la fase de la justificación de lo descubierto, dentro de la investigación
científica. En la primera fase, en efecto, puede haber influencias metafísicas, religiosas,
políticas, etc., que impulsen la actividad del científico. Pero en el momento de la justificación
de sus teorías se impone la racionalidad más estricta y la dura confrontación de sus
predicciones y de las consecuencias de sus teorías con la experiencia. De ahí que el empirismo
antimetafísico de la concepción heredada se haya centrado exclusivamente en el análisis del
contexto de justificación de las teorías científicas.
Ya Mach, complementado por algunas aportaciones de Poincaré, había expuesto las tesis
principales de la concepción heredada. Para él las teorías se ocupan de las regularidades de los
fenómenos, proponiendo términos teóricos para caracterizar -e incluso explicar- dichas
regularidades. Conforme a la matización de Poincaré, esos términos teóricos, al igual que los
axiomas de cada teoría, caso de haberse llegado a la axiomatización de la misma, son simples
convenciones utilizadas para referirse a los fenómenos; pero los términos teóricos han de ser
definidos explícitamente en lenguaje fenoménico y no son otra cosa que abreviaciones de tales
descripciones fenoménicas, tal y como lo subraya Suppe. Los términos teóricos, en las teorías
más desarrolladas, llegan a ser matemáticos, al igual que las leyes fundamentales de la teoría.
Pero todo este utillaje teórico siempre ha de ser traducible a lenguaje fenoménico por la vía de
las definiciones.
La primera versión de la concepción heredada aparece con la obra de Carnap en 1923, Der
Logische Aufbau der Welt. En dicha versión todas las proposiciones o teoremas de una teoría
científica, y en particular sus predicciones, han de ser expresables en lenguaje observacional
acerca de fenómenos. La experiencia sensorial propia es, para Carnap, el último criterio de
verdad de las descripciones fenoménicas que los científicos hayan llevado a cabo. El solipsismo
implícito fue corregido posteriormente por el fisicalismo en el Círculo de Viena, pero la
concepción heredada en sus desarrollos posteriores vino a establecer como nociones
fundamentales de su teoría de la ciencia la distinción entre lo teórico y lo observacional, así
como las reglas de correspondencia o definiciones operacionales como modo de conectar
ambas componentes de una teoría científica. Surge así la versión inicial estándar de la
concepción heredada. Esa versión inicial de la concepción heredada concebía las teorías
científicas como teorías axiomáticas formuladas en una lógica matemática.
Las teorías científicas, supuestas axiomatizadas, y teniendo en cuenta que en sus inferencias,
razonamientos, dilemas, ejemplificaciones, etc., hacen uso de cierto aparato lógico, muestran
en cualquier caso una primera estructura, cuyas componentes principales serían: una lógico-
matemática, que incluye las constantes y los funtores lógicos, pero también los números y el
aparato matemático utilizados (en el caso de la teoría de Newton el cálculo diferencial), otra
teórica, específica de la teoría, que incluye tanto los términos teóricos (masa, fuerza, etc.)
como las leyes de la teoría, las cuales se expresan por medio de dichos términos (leyes del
movimiento, ley de gravitación, etc.), otra observacional, en la que se incluyen los fenómenos
observables explicados por la teoría (movimiento de los astros, caída de los graves, etc.), y una
de intercorrespondencia de la componente teórica y la observacional, que permite definir con
criterio observacional los términos teóricos así como, recíprocamente, interpretar conforme a
las leyes de la teoría los fenómenos (aparatos de medida y de observación, significado de los
términos, etc.). La concepción heredada pretendía así tener una caracterización general de las
teorías científicas más desarrolladas, como la mecánica, la termodinámica, el
electromagnetismo, etc. Precisaba el requisito fisicalista, y de alguna manera también la
tendencia a la unificación de la ciencia por reducción de todas las teorías científicas a lenguaje
fisicalista. Sin embargo, esta versión inicial de la concepción heredada pronto iba a encontrarse
con diversas dificultades.
La axiomatización de teorías
Las reglas de correspondencia van a permitirnos traducir todo el vocabulario teórico Vt, así
como los postulados T y sus consecuencias, a lenguaje observacional. La semántica de la teoría
siempre es en último término, dependiente de la observación, y por tanto también de las
reglas concretas de correspondencia que se utilicen.
Pero antes de llegar al problema de la traducción de Vt a lenguaje fenoménico aparece ya una
primera cuestión: eran muy pocas las teorías físicas, y por supuesto muchas menos las
químicas, biológicas o de las ciencias sociales y humanas, que estaban axiomatizadas conforme
a los preceptos de la escuela formalista de Hilbert en matemáticas. Al tratar de considerar la
filosofía de las ciencias empíricas como algo similar a la metamatemática, desde el punto de
vista del análisis sintáctico de las teorías, surgieron numerosos problemas, tanto desde la
perspectiva lógica como en lo que respecta al proyecto mismo. Se produjeron disensiones
entre los propios defensores de dicha concepción: Hempel, por ejemplo, criticó las virtudes de
la axiomatización para las teorías empíricas, al menos en sus últimos escritos, pues al principio
también el había aceptado la concepción estándar de las teorías como cálculos axiomáticos. En
su debate con Suppes en 1969, Hempel admite que dicha concepción estándar puede valer
para las matemáticas, pero pone en duda su utilidad, incluso a título exclusivamente
metodológico, para las teorías físicas. Se opone en particular a la noción de cálculos no
interpretados.
Pero los problemas con respecto a la axiomatización de las teorías con contenido empírico
habían surgido mucho antes, en pleno auge de la concepción heredada. Veamos únicamente
dos de ellos.
El primero lo presentó la mecánica cuántica. Toda tentativa de axiomatización de la misma
sobrepasaba la estructura lógica inicialmente admitida: una lógica de enunciados de primer
orden con identidad. Y asimismo la solución propuesta por Ramsey al problema de los
términos teóricos desbordaba ese marco lógico. Motivo por el cual había que modificar la
exigencia de la versión inicial, por demasiado restrictiva.
El segundo surgió ligado a los condicionales contrafácticos. Los cálculos lógicos de primer orden
y con identidad, son extensionales; es decir, que en ellos se cumple el principio leibniciano de
sustitución salva veritate. O dicho intuitivamente: en ese tipo de lógicas sólo puede recogerse
el modo indicativo, de entre los distintos tipos de modos que usan los científicos en sus
razonamientos. Ahora bien, no quedaba nada claro que las leyes científicas fuesen
exclusivamente extensionales, precisamente porque utilizan con frecuencia los Condicionales
contrafácticos. Veámoslo en un ejemplo, estudiado por Suppe.
El condicional contrafáctico
interpretado conforme al condicional material, propio de las lógicas de primer orden, sería
verdadero de todo cristal frágil que no se cayera. Como también sería verdadero, lógicamente
hablando, este otro condicional contrafáctico
de todo cristal frágil que no se cayese. Pero físicamente este segundo condicional es falso.
Chisholm y Goodman, entre otros, estudiaron esta cuestión, relacionando el último el
problema de los contrafácticos explícitamente con las leyes científicas. Para Goodman, todo
condicional del tipo anterior depende de una serie de condiciones relevantes, que se dan por
supuestas implícitamente: que estemos en el campo gravitacional de la Tierra, que el cristal no
caiga por un plano inclinado, que la superficie de choque sea más dura que el cristal, etc. Pero
ni aun añadiendo explícitamente dichas condiciones al contrafáctico puede inferirse
físicamente la rotura del cristal: siempre hay que suponer, además, alguna ley científica que, al
cabo, es la clave del fenómeno que se pretende inferir. Si sólo añadimos condiciones
relevantes, nos veremos llevados a analizar lo que sucedería si alguna de dichas condiciones no
se diese; es decir, a nuevos condicionales contrafácticos con lo cual se produciría un círculo
vicioso. Y, a su vez, si hacemos depender la verdad de un condicional contrafáctico de las leyes
científicas, éstas habrían de estar previamente confirmadas, lo cual planteaba a su vez
problemas con los solos recursos de la lógica de primer orden, ya que los propios contrafácticos
forman parte de dicha confirmación.
De ahí que la conclusión final de Chisholm y Goodman apuntase a subrayar el carácter no
extensional de los condicionales contrafácticos, proponiendo la introducción de lógicas
modales (es decir, con operadores modales del tipo 'es posible que', 'es necesario que', etc.)
para el adecuado tratamiento de dichos condicionales. Ello desbordaba el marco de los
cálculos de primer orden con identidad, constituyendo un motivo más para la sustitución de la
versión inicial de la concepción heredada.
La distinción teórico/observacional
Toda teoría axiomatizada parte de unos términos primitivos, indefinibles, que sólo se
determinan mutuamente por los axiomas que se adopten en dicha teoría. Sin embargo, para el
desarrollo de las demostraciones hay que introducir luego una serie de términos definidos en
función de los primeros. Requisito esencial del método axiomático ha sido siempre que todo
concepto de la teoría sea definido explícitamente en función de los términos primitivos.
En el caso de las teorías con contenido empírico, este requisito sólo era necesario para los
términos teóricos, pues se presuponía que los observacionales no presentaban problemas. Por
eso, en un principio, el positivismo lógico exigía definiciones explícitas de todos y cada uno de
los términos teóricos, sin excepción. Todo enunciado de una teoría debía de ser traducible a
términos observacionales, incluidas las leyes fundamentales o axiomas. El criterio empirista de
significado, por otra parte, manteniéndose en la tradición según la cual sólo hay significado
donde hay proposiciones, comportaba la consecuencia de que todos los términos habían de
ser reducibles a observaciones, al menos en principio.
Para solucionar esta cuestión se afirmó la necesidad de que en toda teoría científica se
estableciese una serie de reglas de correspondencia que permitieran traducir el vocabulario
teórico Vt a términos observacionales. Dichas reglas fueron concebidas en un principio como
definiciones explícitas, siguiendo el modelo del axiomatismo de Hilbert. De acuerdo con dicha
exigencia, a cada concepto teórico debería corresponderle biunívocamente un término
observacional. Sin embargo, este ideal se reveló pronto irrealizable, aparte de conllevar
problemas múltiples que obligaron a buscar otro tipo de soluciones. Carnap señaló que los
términos disposicionales, como 'frágil', no eran definibles explícitamente mediante términos
observacionales. Probemos, por ejemplo, con una definición como ésta: <<Un objeto X es frágil
si y sólo si satisface la condición siguiente: dado un instante t, si X recibe un golpe seco en t,
entonces X se romperá en t>>. Si procediéramos así, tendríamos que expresar a continuación
esta definición en términos de una lógica de primer orden, conforme al esquema del requisito
V: Fx <-> (t) (Sxt -> Bxt), lo cual podría leerse en palabras: X es frágil (Fx) si y sólo si en todo
instante t, el que x reciba en ese instante un golpe seco (Sxt) conlleva el hecho de que en el
mismo instante x se rompa (Bxt).
Ahora bien, este enunciado, conforme a la definición del condicional de la lógica de primer
orden, será verdadero también de cualquier objeto que nunca sea golpeado, dado que el
condicional siempre resulta válido cuando el antecedente es falso. Con lo cual no hemos
logrado definir adecuadamente el término teórico 'frágil' que, sin embargo, sí tiene un uso
efectivo en las teorías físicas correspondientes.
De ahí que se optase poco después por las definiciones operacionales que había propuesto
Brigdman, inspirándose en las concepciones de Mach, y más en concreto en las críticas que
este autor hizo a la definición de masa dada por Newton: <<La cantidad de materia es la
medida de ésta mediante su densidad y su volumen, conjuntamente. Dicha cantidad es lo que
entenderé mediante el término masa o cuerpo en la explicación que sigue>>.
Para Mach esta definición es una pseudodefinición: <<El concepto de masa no resulta más
claro al describir la masa como el producto del volumen por la densidad, ya que la densidad
misma denota simplemente la masa por unidad de volumen>>. Por este motivo propuso otra
definición muy diferente, basada en la tercera de las leyes newtonianas del movimiento, o
principio de acción y reacción: <<La razón de las masas de dos cuerpos es la razón inversa
negativa de las aceleraciones mutuamente inducidas por dichos cuerpos>>. Esto permitía
medir la masa experimentalmente, y no sólo en función de la interacción de dos cuerpos en el
campo gravitacional, sino también en función de las atracciones y repulsiones de dichos
cuerpos al interactuar eléctrica o magnéticamente. La definición machiana del concepto
teórico 'masa' constituyó una especie de paradigma para el operacionalismo de Brigdman, al
proponerse una definición que proporcionaba a la vez un método concreto y preciso para
medir el concepto recién definido. De ahí que Brigdman, al tratar de introducir el concepto de
longitud, insistió en definirlo basándose en operaciones físicas: <<Para encontrar la longitud de
un objeto tenemos que realizar alguna operación física. Ahora bien, el concepto de longitud
queda fijado cuando las operaciones por medio de las cuales se mide la longitud están fijadas,
esto es, que el concepto de longitud es, ni más ni menos, el conjunto de operaciones mediante
las cuales se determina la longitud. Y, en general, por un concepto cualquiera no significaremos
más que un conjunto de operaciones. El concepto es sinónimo del correspondiente conjunto de
operaciones>>.
Pero las definiciones operacionales presentan muchos problemas teóricos. Popper, en su
Conjeturas y refutaciones, lo mostró claramente: <<Contra esta concepción (operacionalista),
cabe mostrar que las medidas presuponen teorías. No hay medida alguna sin teoría previa, y
tampoco hay operación que pueda ser descrita satisfactoriamente en términos no teóricos. Las
tentativas de hacerlo son circulares; por ejemplo, la descripción de la medida de una longitud
necesita una teoría (rudimentaria) del calor y de la medida de una temperatura; pero éstas a su
vez incluyen medidas de longitudes>>.
En efecto, Brigdman entendía la longitud en función de una serie de operaciones físicas, entre
las cuales se incluía llevar una barra rígida de metal una y otra vez hasta medir el intervalo del
que se tratase, pero un presupuesto indispensable de dicha operación, entre otros muchos, es
que la barra no se dilate, lo cual comporta la necesidad de describir la operación para una
temperatura constante de la barra, y por tanto requiere la previa definición de temperatura,
que, a su vez, requiere la de longitud, como subraya Popper.
Pero los problemas iniciales del operacionalismo no fueron estos. A Brigdman se le criticó
sobre todo que si, como sucede con muchas magnitudes y conceptos teóricos, un término es
ampliado
por la propia evolución de la ciencia, es preciso introducir una nueva operación para definirlo,
con lo cual el concepto se modifica. Por ejemplo, a partir de cierta distancia ya no se utilizan
barras rígidas para medir longitudes, sino, por ejemplo, teodolitos. Y no cabe duda de que, por
una parte, los teodolitos presuponen otro tipo de teorías (como la óptica, que desde luego
presupone a su vez la definición de longitud), ni de que por otra las operaciones físicas que se
llevan a cabo con un teodolito para medir una distancia son muy diferentes de las que se
ejecutan con una barra rígida. Al operacionalismo siempre le quedaría por justificar que se
trata del mismo concepto teórico, lo cual no resulta nada fácil. A esta objeción,
paradójicamente, Brigdman contestó diciendo que es la ciencia la que está en un error y que,
efectivamente, hay distintos conceptos según los diversos instrumentos de medida, afirmación
ésta que ni siquiera los más recalcitrantes defensores del empirismo y de la concepción
heredada podían aceptar. Y sin embargo, pese a sus graves insuficiencias metodológicas, el
operacionalismo ha seguido teniendo, y todavía conserva, un notable predicamento en
determinadas ciencias, como el conductismo skinneriano o diversas tendencias taxonomistas, y
en general en las ciencias sociales. Entre los metodólogos y epistemólogos quedó rápidamente
abandonado.
Carnap propuso una nueva solución al problema de las reglas de correspondencia, exigiendo
que fuesen enunciados de reducción que caracterizasen parcialmente los términos teóricos.
Pero también en este caso cabe más de un enunciado que reduzca los términos teóricos a
observacionales para cada término teórico. Por ejemplo: un objeto también se revela frágil al
hacerlo girar bruscamente, o al someterlo a sonidos de alta frecuencia. Hay varias reglas de
correspondencia para cada término teórico, cada una de las cuales sólo lo define parcialmente,
según Carnap. De ahí que el requisito V se propusiera también a modificación, con arreglo a
este nuevo criterio; pero tampoco aquí desaparecían las críticas, tal y como señaló Hempel en
1952, en relación con términos teóricos como 'masa', 'momento', 'cuerpo rígido', 'fuerza',
'temperatura absoluta', 'presión', 'volumen', 'electrón', 'protón' y otros: <<Los términos de este
tipo no se introducen mediante cadenas de definición o reducción basadas en observables; de
hecho, no se introducen mediante ningún proceso analítico consistente en asignarles
significado
individual. Más bien las construcciones usadas en una teoría se introducen a la vez
estableciendo un sistema teórico formulado en sus propios términos y dando a este sistema
una interpretación experimental, que a su vez confiere un significado empírico a dichas
construcciones teóricas>>. Surge así la concepción de las teorías científicas como un todo, que
tanto predicamento iba a tener en los años posteriores; pero en el marco de la concepción
heredada, sucede todavía en relación con la idea originaria de las teorías como cálculos lógicos
que, una vez construidos, encuentran interpretaciones empíricas globalmente, y no concepto a
concepto. Las reglas de correspondencia pasaron a ser un sistema interpretativo, y no ya un
conjunto disgregado de enunciados de reducción de lo teórico a lo observable para cada uno
de los términos teóricos básicos de dicha teoría.
Las dificultades habidas con el concepto básico de reglas de correspondencia, así como las
anteriormente reseñadas en torno a la axiomatización, a la lógica L de una teoría, a los
términos
teóricos e incluso a la versión estrictamente fisicalista de las teorías, que pasó a ser sustituida
por una versión semántica más general por influencia de las investigaciones de Tarski, dieron
lugar a que en la década de los cincuenta la versión inicial fuese reemplazada por lo que
Frederick Suppe llama la versión final de la concepción heredada.
La caracterización final de la concepción heredada, las múltiples presuposiciones ontológicas
que se hacen en ella, y sobre todo por el carácter ad hoc de muchas de las soluciones finales,
que sólo aparecen para evitar determinados problemas técnico, que la concepción heredada ya
estaba en plena crisis en la década de los cincuenta. Es el momento en que, aparte de las
críticas más o menos concretas, van a surgir opositores mucho más frontales, en particular los
que van a atacar la única componente de la versión inicial, y del propio positivismo lógico, que
aún queda incólume: lo observacional. Pero antes, la concepción heredada va a producir
aportaciones que tendrán interés para el desarrollo ulterior de la filosofía de la ciencia en el
siglo XX.
En el caso de la concepción heredada, la utilización de los modelos de una teoría surge con la
versión final de la misma, y en concreto con la propuesta de Carnap en 1956 de las
interpretaciones parciales de los términos teóricos: <<No mantenemos que quepa una
interpretación completa de Lt, sino solo una interpretación indirecta y parcial que dan las reglas
de correspondencia>>.
Aunque Carnap no llegó a definir con exactitud la noción de 'interpretación parcial', lo cierto es
que comenzó a utilizarse de inmediato, dando lugar a las críticas de Achinstein y de Putnam.
Este último fue quien propuso la siguiente interpretación de la tesis carnapiana: interpretar
parcialmente términos V, y enunciados de L es especificar una clase no vacía de modelos
propuestos con más de un miembro.
Esta idea ha tenido gran éxito en los años ulteriores, pero ha suscitado asimismo una viva
discusión en torno a la noción de modelo de una teoría con contenido empírico, y en particular
a si dichos modelos pertenecen o no a la estructura de la teoría. Las investigaciones de Sneed
surgen, de alguna manera en este contexto.
Hempel, Nagel, Freudenthal, Braithwaite, Hesse y otros muchos debatieron esta cuestión en la
década de los sesenta. Nagel, por ejemplo, caracterizaba así a la concepción heredada en su
tratado de 1961, La estructura de la ciencia:
1) Un cálculo abstracto que es el esqueleto lógico del sistema explicativo y que «define
implícitamente las nociones básicas del sistema.
2) Un conjunto de reglas (de correspondencia) que asignan de modo efectivo un contenido
empírico al cálculo abstracto, poniéndolo en relación con los materiales concretos de la
observación y la experimentación.
3) Una interpretación o modelo del cálculo abstracto que provea a la estructura esquelética de
carne, por así decirlo, en términos de materiales conceptuales o visualizables más o menos
familiares.
Las críticas internas a la versión final carnapiana de la concepción heredada suscitaban así
nuevos problemas, que pocos años después serían retomados por otros filósofos de la ciencia,
pero desde puntos de vista totalmente distintos a la tradición neopositivista. La década de los
sesenta es pues una fase de crisis para la concepción heredada, que va a dar lugar, por una
parte, a que algunos autores formados en ella se desliguen de la misma, como asimismo a la
difusión de ideas contrarias a ella, como las del propio Popper, que habían estado como
congeladas en sus aspectos fundamentales durante muchos años. Pero el abandono
generalizado de la misma sólo tendrá lugar a partir del embate del historicismo kuhniano, que
parte ya de posiciones totalmente heterogéneas a las de la tradición neopositivista.
Entretanto, sin embargo, los defensores de la concepción heredada lograron todavía plantear
nuevos problemas, que han pasado a ser esenciales en los años posteriores, aunque para ser
tratados con criterios muy diferentes a los de Carnap, Hempel y otros.
La reducción de unas ciencias a otras era el lema fundamental del Círculo de Viena en su
proyecto de elaboración de una ciencia unificada. Del mismo modo Frege, Russell y la escuela
formalista de Hilbert habrían reducido las matemáticas a la lógica, haciendo surgir la teoría de
los sistemas formales, y su metateoría o metamatemática, las ciencias empíricas debían ser
reducidas a lenguaje fisicalista, e incluso algunas ciencias a otras, como las ciencias sociales a la
psicología (entendida ésta al modo conductivista) y ésta a su vez al fisicalismo. La impronta del
positivismo de Comte, aunque muy lejana, seguía dejándose notar.
El progreso científico está ligado, según el neopositivismo, a los procesos de reducción de
teorías, entre los cuales hay dos perfectamente válidos, puesto que lo suscitan: según el
primero una teoría altamente corroborada tiende a ampliar su campo originario, reduciendo a
sus términos y a su marco teórico ámbitos fenoménicos que hasta entonces habían sido
investigados con técnicas muy diferentes; el ejemplo clásico es el de la extensión de la
mecánica clásica de partículas a la mecánica de cuerpos rígidos, pero también puede valer la
extensión de los métodos físicos a la psicología (psicofísica de finales del siglo XIX) o la de los
métodos estadísticos a las ciencias humanas y sociales (psicometría y sociometría del siglo XX).
El segundo procedimiento fundamental para la reducción de unas teorías científicas a otras
tiene lugar cuando varias teorías altamente corroboradas, cada una en su dominio, siendo
éstos en principio muy diversos, se incluyen en o se reducen a otra teoría más amplia. Así
ocurrió con la mecánica newtoniana, que en su desarrollo absorbió varias teorías precedentes,
como las de Copérnico y Kepler en astronomía y la de Galileo sobre la caída de los graves.
Ahora bien, ¿cómo encajar estos procesos de cambio científico con la estructura de las teorías,
tal y como ésta había quedado definida en la concepción heredada, sea en su versión inicial o
en su versión final?
El primer tratamiento del problema lo proporcionaron en 1956 Kemeny y Oppenheim: según
ellos, una teoría T1 reduce la teoría T2 cuando T1 contiene los mismos datos observacionales
que T2, y los presenta en forma más sencilla. El programa fisicalista se mantenía, pues, en todo
su rigor, dando por supuesto que en una teoría todo es traducible a términos observacionales,
por medio de las reglas de correspondencia.
En 1961 Nagel propuso otra definición de la reducción entre teorías, que pasó a ser la tesis
estándar de la concepción heredada al respecto. Para Nagel, una teoría es reducible por otra si
puede ser lógicamente derivable de ella, lo cual sólo puede suceder, por supuesto, si ambas
teorías son lógicamente consistentes entre sí y el vocabulario de la primera (la reducida) puede
obtenerse a partir del de la segunda, tanto en lo que respecta a la componente teórica como a
la observacional, mediante definiciones o leyes-puente. Lo cual da lugar a una cuestión que
será de gran importancia en los años siguientes, y que puede verse ya, en forma ambivalente,
en este pasaje de Nagel: <<Las leyes de la ciencia segunda no emplean ningún término
descriptivo que no se use con más o menos el mismo significado en la ciencia primera>>.
No está claro, en efecto, que en los procesos de reducción científica el significado de los
términos, incluso el observacional, no se modifique. No es lo mismo observar los fenómenos
astronómicos desde una perspectiva copernicana (o kepleriana) que enmarcarlos en el aparato
conceptual newtoniano. Nagel reconoce esta dificultad para el segundo tipo de reducción
científica, admitiendo que la teoría reductora puede conllevar la introducción de nuevos
términos teóricos y de diferentes reglas de correspondencia con respecto a la teoría reducida.
De ahí que para que efectivamente haya un proceso de reducción por asimilación de varias
teorías en una más general, hace falta que cada una de las primeras, y desde luego la teoría
reductora, tuviesen su vocabulario teórico adecuadamente fijado y consolidado. Pero no basta
con ello. Todo término teórico nuevo, que no apareciese en las teorías reducidas, ha de ser
confrontado con cada uno de los términos teóricos de las primeras, al objeto de precisar sus
relaciones, a poder ser por medio de definiciones o de leyes, de tal manera que, una vez
cumplido este segundo requisito, todas las leyes de las teorías reducidas puedan ser deducidas
a partir de las premisas y reglas de correspondencia de la teoría reductora, con lo cual se
logrará que también lo sean sus teoremas. Y, por último, todas estas transformaciones de las
teorías reducidas han de haber sido corroboradas por la experiencia.
Surge así el paradigma de lo que más tarde se llamará concepción acumulativa del progreso
científico. La ciencia avanza mediante procesos de reducción de unas teorías a otras nuevas, y
en cada paso el contenido empírico de las teorías precedentes ha de ser perfectamente
expresable, deducible y corroborable con el nuevo vocabulario, axiomas, cálculo lógico y reglas
de correspondencia de la nueva teoría. Implícitamente se afirma que las antiguas teorías no
deben ser abandonadas, sino mejoradas, perfeccionadas y englobadas en otras más generales.
Como veremos más adelante, este tipo de planteamientos fueron uno de los principales
caballos
de batalla a partir de los años sesenta, cuando autores como Kuhn, Hanson, Feyerabend e
incluso Bohm rechazasen enérgicamente esta concepción del progreso científico.
Pero independientemente de ello, el concepto de reducción científica, en la medida en que
abrió el debate sobre una cuestión mucho más amplia, la de las relaciones entre teorías
científicas pasó a ser uno de los centrales de la filosofía de la ciencia en los últimos años.
Otro concepto importante estudiado a fondo por la concepción heredada es el de explicación.
La teoría aristotélica de la ciencia consideraba que el conocimiento científico es un
conocimiento por causas. Su influencia fue, en este aspecto, profundísima, al menos hasta el
siglo XIX, a pesar
de la radical critica de Hume a la noción de causalidad. La ciencia moderna, dentro de su
tradición esencialista, no sólo aspiraba a elaborar una descripción adecuada del mundo, sino
que mediante sus teorías pretendía lograr además una explicación de los hechos observables, y
una explicación causal; Newton y su célebre lema, Hypothesis non fingo, han encarnado el
prototipo del científico que pide que las teorías sean explicativas, por considerar esto como el
objetivo principal de la ciencia.
Una vez aceptada la crítica humeana a la noción de causalidad por parte del Círculo de Viena,
se planteó sin embargo la necesidad de mantener el concepto de explicación como algo central
en filosofía de la ciencia, ya que no el de explicación causal. Popper se ha ocupado
ampliamente de la cuestión, y ello ya en su obra La lógica de la investigación científica, de
1934. Allí afirma que, si no el principio de causalidad en su interpretación esencialista, el
científico debía seguir manteniendo un principio metodológico similar al de causalidad: <<Se
trata de la simple regla de que no abandonaremos la búsqueda de leyes universales y de un
sistema teórico coherente, ni cesaremos en nuestros intentos de explicar causalmente todo
tipo de acontecimientos que podemos describir: esta regla guía al investigador científico en su
tarea>>.
Dicha tesis de Popper no fue bien recibida por los neopositivistas ni por los instrumentalistas,
dentro de la concepción heredada. En cambio, si aceptaron su afirmación de que las teorías
científicas han de ser explicativas: <<Teorías que describan ciertas propiedades estructurales
del mundo que nos permitan deducir, valiéndonos de condiciones iniciales, los efectos que se
trata de explicar>>. La diferencia va a estribar en que la explicación científica no tiene por qué
ser pensada en términos de causa y efecto. La primera propuesta en este sentido proviene de
Carnap, aunque todavía está orientada a un ámbito restringido de las teorías científicas: <<La
tare la explicación consiste en transformar un concepto dado, más o menos inexacto, en otro
exacto, o mejor aún, en sustituir el primero por el segundo. Llamamos al concepto dado (o al
término usado en su lugar) explicandum y al concepto exacto (o al término) propuesto para
ocupar el lugar del primero exlpicatum. El explicatum debe ser introducido por medio de reglas
explícitas de uso; por ejemplo, mediante una definición que lo incorpore a un sistema bien
construido de conceptos científicos lógico-matemáticos o empíricos>>.
Tres páginas más adelante precisa todavía más los requisitos que debe cumplir el explicatum:
ser similar al explicandum, que sus reglas de uso estén formuladas con exactitud, que resulte
fructífero y que sea simple, en la medida de lo posible, en función de los requisitos anteriores.
Pero este tipo de explicación está planteada únicamente como la relación entre dos conceptos
de teorías distintas cuando una es reducida por la otra: entonces hay conceptos de la segunda
que explican los de la primera. Cabe incluso hablar de la explicación como relación entre
teorías, y no ya sólo entre conceptos; así lo hace Popper, al referirse a uno de los grandes
ejemplos de reducción científica que él estudia, el de la química a la física a partir de la
clasificación de los elementos en función de su estructura atómica: <<Todos los hallazgos de la
química pueden ser explicados completamente (es decir, deducidos) de los principios de la
física>>.
Mas el propio Popper señala que, estando relacionados entre sí los procesos de reducción y
explicación científica, el primero es algo más que una simple explicación de una teoría por otra:
implica además una comprensión teórica, y ello no sólo en el caso de las ciencias humanas o
sociales, como se afirmará con frecuencia, sino incluso en ciencias de la naturaleza, como la
biología.
La explicación científica no sólo afecta al reemplazo de un concepto por otro, ni a la reducción
teórica, sino sobre todo a la explicación de los hechos y de los fenómenos. De ahí que hiciese
falta un estudio más general de la noción de explicación, que fue iniciado en 1954 por Hempel
y Oppenheim, y continuado posteriormente por Hempel y por Nagel.
En primer lugar, hay que distinguir entre diferentes tipos de explicación, entre los cuales la
explicación causal no sería más que uno entre varios. Al respecto se han propuesto muchas
clasificaciones. Nagel distingue cuatro tipos: la explicación deductiva, la probabilística, la
teleológica (o funcional) y la genética. Nosotros nos atendremos a la clasificación más amplia
propuesta por Speck, que se adapta mejor a las ideas de Hempel, precisándolas en función de
aportaciones ulteriores. De acuerdo con ello la explicación científica podría ser de los
siguientes tipos:
Estos cuatro requisitos son llamados por Hempel y Oppenheim condiciones de adecuación,
siendo las tres primeras lógicas y la cuarta la condición empírica de adecuación.
4) Explicación disposicional, que ha sido desarrollada especialmente por Carnap y Ryle, a partir
de los conceptos disposicionales propugnados por el primero. Un ejemplo de este tipo de
explicación, en la que se vuelve de alguna manera a la antigua explicación causal, sería la
ruptura de una ventana al ser golpeada por un martillo, hecho que se produciría en base al
concepto 'frágil' adjudicado al cristal y que permite explicar el fenómeno sin recurrir
explícitamente a ninguna ley científica cuantitativa.
5) Explicación racional, denominación propuesta por Dray para aplicarla en particular al tipo de
explicación de los acontecimientos que se produce en las ciencias históricas. Seria a su vez
disposicional, pero añadiendo un matiz importante: la intencionalidad propia de las acciones
humanas. Este tipo de explicación se sitúa en un ámbito exclusivamente pragmático.
6) Explicación teleológica, término clásico muy utilizado para las ciencias biológicas y humanas,
y que en este siglo suele recubrir para muchos autores los actos intencionales. En 1943,
Rosenblueth, Wiener y Bigelow escribieron un importante artículo sobre el tema de la
explicación científica, titulado «Behavior, Purpose and Teleology". Aportaban en él la noción de
retroacción negativa, importante para los sistemas homeostáticos o autorregulados, tan
frecuentes en los seres vivos, mas también en muchas estructuras cibernéticas. Braithwaite y
Nagel también se ocuparon de esta cuestión: la posición general de la concepción heredada
sería
subsumir las explicaciones teleológicas o finalísticas, e incluso las intencionales (acciones
dirigidas a un objetivo), bajo el modelo de explicación causal, e incluso hacerlas compatibles
con el modelo de cobertura legal de Hempel, es decir, con la aplicación nomológica-deductiva.
Al respecto se ha producido ulteriormente la importante contribución, en 1971, de Von Wright.
Siguiendo ideas propuestas por Elisabeth Anscombe en su obra Intention, Von Wright se ha
interesado en la tradicional propuesta aristotélica de los silogismos prácticos para intentar
analizar la naturaleza de la explicación teleológica. El silogismo práctico podría ser descrito así:
[...] el punto de partida a la premisa mayor del silogismo menciona alguna cosa pretendida o la
meta de actuación; la premisa menor refiere algún acto conducente a su logro, algo así como
un medio dirigido a tal fin: por último, la conclusión consiste en el empleo de este medio para
alcanzar el fin en cuestión.
Este tipo de silogismo, según Von Wright, sería la clave para comprender lo que es la
intencionalidad y la teleología en las acciones humanas. Un ejemplo concreto de dicho
silogismo o inferencia práctica sería:
A se propone dar lugar a p.
A considera que no puede dar lugar a p a menos de hacer a.
Por consiguiente, A se dispone a hacer a.
Resulta así, siempre según Von Wright, que el explanandum de una explicación teleológica es
una acción, y que por tanto su análisis debe llevarse a cabo conforme al esquema anterior de
los silogismos prácticos, característicos de las acciones intencionales. El razonamiento anterior
explica el evento a, pero no en términos nomológicos-deductivos, por una parte, ni se limita a
explicarlo, por otra. El silogismo práctico permite, además de la explicación de un fenómeno o
evento, su comprensión. Con ello, Von Wright amplía el debate hacia un tema clásico, que
desde luego sale fuera del marco de la concepción heredada, y retoma algunos puntos de la
tradición hermenéutica: el de la explicación versus la comprensión en ciencias humanas.
Volveremos más adelante sobre este punto.
Otra importante contribución de Von Wright, en la que sintoniza con las tesis de Dray en torno
a la explicación racional, estriba en una característica específica de las ciencias humanas,
consistente en la retrodicción, que se opone al objetivo metodológico de las ciencias físicas,
que según la concepción heredada sería la predicción. Para Von Wríght, la retrodicción, o
explicación de un suceso en base a sus condiciones previas de posibilidad, sería el objetivo
principal de ciencias como la historia o el conductismo, pero también de la cosmología, la
geología o la teoría de la evolución.
Estas ideas de Von Wright han sido a su vez modificadas, basándose en las críticas que se le
hicieron en el Simposio de Helsinki de 1974.
A título de resumen, en el caso de la explicación han surgido diversas críticas al modelo
hempeliano de cobertura legal, pero en cualquier caso su misma formulación, con todas las
adiciones y perfeccionamientos que llevó a cabo el propio Hempel, abrió asimismo nuevas
líneas de investigación y de estudio para la filosofía de la ciencia.
Toulmin y el instrumentalismo
Stephen Toulmin se opuso desde sus primeras obras publicadas, en 1953 y 1961, a varias de las
tesis de la concepción heredada. Su posición general respecto a las teorías científicas es
instrumentalista. Para él, ni las leyes ni las teorías son verdaderas ni falsas. Para poderlas
aplicar a los fenómenos se requieren instrucciones complementarias, sin las cuales los
enunciados nómicos de las teorías, e incluso muchos conceptos fundamentales de las mismas,
no podrían ser identificados en el ámbito fenoménico. Argumento que con posterioridad
retomará Lakatos. En relación con la concepción heredada distinguió, con ocasión de su
«Postscriptum" a las Actas del Simposio de Urbana, hasta cuatro puntos de divergencia con
ella, que son expuestos en forma de cuestiones de la manera siguiente:
1a) ¿Existe alguna forma o algún simbolismo estándar y obligatorio para analizar la estructura
axiomática de cualquier teoría científica sea la que sea?
1b) ¿Es la forma axiomática la única «estructura lógica» legitima para la ciencia o puede haber
otras formas lógicas dentro de las que pueda ser legítimamente analizado el contenido de una
teoría científica?
1c) ¿Cuál es la naturaleza de la «correspondencia>> por la que los elementos formales de una
teoría científica adquieren relevancia o interpretación empírica?
1d) ¿Puede el contenido intelectual de la ciencia natural en un cierto corte temporal de su
desarrollo ser expresado como una red sistemática de relaciones lógicas?
Al hablar del problema filosófico tradicional de la induccióon (que llamaré "Tr") me refiero a
formulaciones como las siguientes:
Tr: ¿Cómo se justifica la creencia de que el futuro será (en gran medida) como el pasado? O, tal
vez, ¿cómo se justifican las inferencias inductivas?
Estas preguntas están mal formuladas por diversas razones. La primera, por ejemplo, supone
que el futuro será como el pasado. Personalmente, considero un error suponer tal cosa, a
menos que la palabra "como" se tome en un sentido tan flexible que haga que dicha suposición
sea vacía e inocua. La segunda formulación supone la existencia de inferencias inductivas y de
reglas para obtenerlas, lo que significa, una vez más, hacer una suposición acrítica que me
parece equivocada. Pienso, por tanto, que ambas formulaciones son sencillamente acríticas y
lo mismo podría decirse de muchas otras. Por tanto, me he impuesto fundamentalmente la
tarea de formular una vez más el problema que está detrás, a mi parecer, de lo que he llamado
el problema filosófico tradicional de la inducción.
Las formulaciones, ya tradicionales, datan de fecha histórica reciente: surgen de la crítica de
Hume a la inducción y de su impacto sobre la teoría del conocimiento del sentido común.
La teoría del conocimiento del sentido común, que he apodado “la teoría de la mente como un
cubo”, queda perfectamente recogida en la frase “nada hay en el intelecto que no haya pasado
antes por los sentidos”. (Parménides fue el primero en formular este punto de vista. Dicho en
tono satírico: la mayor parte de los mortales no tienen nada en sus falibles intelectos que no
haya pasado antes por sus falibles sentidos).
A pesar de todo, esperamos cosas y creemos con firmeza en ciertas regularidades (leyes de la
naturaleza, teorías), lo que nos lleva al problema de la inducción del sentido común (que
llamaré “Cs”):
La respuesta del sentido común consiste en decir que estas creencias surgen en virtud de
reiteradas observaciones hechas en el pasado: creemos que el sol saldrá mañana porque así ha
ocurrido en el pasado.
Desde el punto de vista del sentido común se da por supuesto, sin más problemas, que
nuestras creencias en regularidades se justifican mediante esas observaciones reiteradas
responsables de su génesis. (Lo que los filósofos desde Aristóteles y Cicerón han llamado
“epagoge” o “inducción” es esa génesis cum justificación, debidas ambas a la reiteración).
Los dos problemas de la inducción de Hume
Hume estaba interesado por la condición del conocimiento humano o, como él diría, por el
problema de si nuestras creencias (o, al menos, algunas de ellas) se pueden justificar con
razones suficientes. Planteó dos preguntas, una lógica (Hl) y otra psicológica (Hps), con la
característica importante de que sus respuestas chocan entre sí de algún modo.
Hl: ¿Cómo se justifica que, partiendo de casos (reiterados) de los que tenemos experiencia,
lleguemos mediante el razonamiento a otros casos (conclusiones) de los que no tenemos
experiencia?
La respuesta de Hume a H’l consiste en negar que haya alguna justificación, por grande que sea
el número de repeticiones. También mostró que la situación lógica sigue siendo exactamente la
misma cuando ponemos la palabra “probable” después de “conclusiones” o cuando
sustituimos las palabras “a casos” por “a la probabilidad de casos”.
Hps: ¿Por qué, a pesar de todo, las personas razonables esperan y creen que los casos de los
que no tienen experiencia van a ser semejantes a aquellos de los que tienen experiencia? Es
decir, ¿por qué confiamos tanto en las experiencias que tenemos?
La respuesta de Hume se centra en la “costumbre o hábito”; es decir, porque estamos
condicionados por las repeticiones y el mecanismo de asociación de ideas, mecanismo sin el
cual, dice Hume, difícilmente sobreviviríamos.
(1) Según mis reformulaciones, la cuestión central del problema lógico de la inducción es la
validez (verdad o falsedad) de las leyes universales por respeto a ciertos enunciados “dados”.
Dejo de lado el problema de “cómo determinamos la verdad o la falsedad de los enunciados
contrastadores”, es decir, de las descripciones singulares de sucesos observables. Sugiero que
este último problema no debe ser considerado como parte del problema de la inducción,
puesto que la pregunta de Hume es si se puede o no justificar el paso de los “casos”
experimentados a los no experimentados. Que yo sepa, ni Hume ni ninguna de las demás
personas que se han ocupado del tema antes que yo, ha pasado de estas preguntas a las
siguientes: ¿Podemos dar por supuestos los “casos experimentados”? ¿Son realmente previos a
las teorías? Aunque mi solución al problema de la inducción me hizo ver la existencia de otros
problemas, estas preguntas van más allá del problema original. (Esto es obvio si consideramos
qué tipo de cosas buscaban los filósofos cuando intentaban resolver el problema de la
inducción: si se pudiera encontrar un “principio de inducción” que permitiese derivar leyes
universales partiendo de enunciados singulares y si se pudiera sostener su pretensión de
verdad, entonces el problema de la inducción podría considerarse resuelto).
(2) L1 constituye un intento de traducir el problema de Hume a un modo objetivo de hablar. La
única diferencia es que Hume habla de casos (singulares) futuros de los que no tenemos
experiencia -es decir, de expectativas- mientras que L1 habla de leyes universales o teorías.
Propongo este cambio al menos por tres razones. En primer lugar, desde un punto de vista
lógico, “casos” hace referencia a una ley universal (o al menos a una función de enunciado que
puede ser universalizada). En segundo lugar, nuestro método usual de razonar de unos “casos”
a otros se lleva a cabo con la ayuda de teorías universales. De este modo, pasamos del
problema de Hume al problema de la validez de las teorías universales (su verdad o falsedad).
En tercer lugar, dese conectar, como hace Russell, el problema de la inducción con las leyes
universales o teorías científicas.
(3) Mi respuesta negativa a L1 ha de interpretarse en el sentido de que debemos considerar
todas las leyes o teorías como hipótesis o conjeturas: es decir, como suposiciones.
Strawson escribe: “Si hay un problema de la inducción y Hume fue quien lo planteó, hay que
añadir que fue él quien lo resolvió”. Alude con esto a la respuesta positiva que dio Hume a Hps,
respuesta que Strawson parece aceptar describiéndola como sigue: “La Naturaleza nos fuerza a
aceptar los cánones básicos (de la inducción). La razón es, y debe ser, la esclava de las
pasiones”.
Está claro que la “inducción” -en el sentido de una respuesta positiva a HL o L1- es
inductivamente inválida e incluso paradógica, ya que una respuesta positiva a L1, implica que
nuestra explicación del mundo es aproximadamente verdadera (con lo cual estoy de acuerdo, a
pesar de mi respuesta negativa a L1). De ahí se sigue que somo un tipo de animales muy
inteligentes, situados precariamente en un medio que difiere de cualquier otro lugar del
universo: animales que se esfuerzan valerosamente en descubrir por cualquier medio las
verdaderas regularidades que rigen el universo y, por tanto, nuestro medio. Mas es obvio que,
sea cual sea el método que usemos, la probabilidad de encontrar regularidades verdaderas es
escasa, y nuestras teorías estarán afectadas por errores en los que no nos impedirá incurrir
ningún enigmático “canon de inducción”, sea o no básico. Esto es precisamente lo que dice mi
respuesta negativa a L1. Por tanto, la respuesta positiva debe ser falsa, puesto que entraña su
propia negación.
Quien quiera sacar la moraleja de esta historia deberá concluir que la razón crítica es mejor
que la pasión, sobre todo en cuestiones de tipo lógico. Con todo, estoy dispuesto a admitir que
no se puede hacer nada sin una pequeña dosis de pasión.
(4) L2 no es más que una generalización de L1, y L3 no es sino una formulación alternativa de L2.
(5) Mi respuesta a L2 y L3 suministra una respuesta clara a las preguntas de Russell. Puedo decir
perfectamente que al menos algunos de los desvaríos de los lunáticos se pueden refutar
mediante la experiencia, es decir, mediante enunciados contrastadores. (Otros pueden no ser
contrastables, distinguiéndose así de las teorías científicas, lo cual plantea el problema de la
demarcación). (Por “el problema de la demarcación” entiendo el problema de dar con un
criterio mediante el cual podamos distinguir los enunciados de la ciencia de los enunciados no
empíricos. Mi solución consiste en decir que un enunciado es empírico si hay conjunciones
(finitas) de enunciados empíricos singulares (“enunciados básicos” o “enunciados
contrastadores”) que lo contradigan. De este “principio de demarcación” se sigue la
consecuencia de que un enunciado puramente existencial aislado (por ejemplo, “En algún
momento hay en alguna parte del mundo una serpiente marina”) no es un enunciado empírico,
aunque naturalmente, puede contribuir a plantear nuestra situación problemática empírica).
(6) Lo que es más importante, mi respuesta a L3, está de acuerdo con la siguiente forma -un
tanto débil- del principio del empirismo: Sólo la experiencia puede ayudarnos a decidir sobre la
verdad o falsedad de los enunciados fácticos. Esto es así, ya que, en vista de L1 y de mi
respuesta, podemos determinar al menos la falsedad de las teorías, lo cual se puede hacer
también en vista de la respuesta a L2.
(7) De un modo similar, mi solución no entra en conflicto con los métodos de la ciencia, sino
que nos conduce a los rudimentos de una metodología crítica.
(8) Mi solución no solo ilumina poderosamente el problema psicológico de la inducción, sino
que también dilucida las formulaciones tradicionales del problema y las razones de su
debilidad.
(9) Mis formulaciones y soluciones de L1, L2 y L3 caen de lleno en el campo de la lógica
deductiva. Muestro que, al generalizar el problema de Hume, podemos añadir L2 y L3, lo cual
nos permite formular una respuesta algo más positiva que la que se puede dar a L3. La causa
estriba en la asimetría que existe, desde el punto de vista de la lógica deductiva, entre verificar
y falsar mediante la experiencia. Esto conduce a la distinción exclusivamente lógica entre
hipótesis que han sido refutadas y otras que no lo han sido y a la preferencia por estas últimas,
aunque sólo sea desde un punto de vista teórico según el cual son objetos teóricamente más
interesantes para ulteriores contrastaciones.
La respuesta negativa a L1 significa que todas nuestras teorías no son más que suposiciones,
conjeturas o hipótesis. Una vez aceptado plenamente este resultado puramente lógico, surge la
cuestión de si puede haber argumentos puramente racionales (que pueden ser empíricos) para
preferir unas conjeturas o hipótesis a otras. Hay varias maneras de considerar la cuestión.
Distinguiré el punto de vista del teórico -el que busca la verdad, en especial teorías explicativas
verdaderas- del punto de vista del hombre de acción. Es decir, distinguiré la preferencia teórica
y la preferencia pragmática.
Supondré que el teórico se preocupa por la verdad y, específicamente, por encontrar teorías
verdaderas. Mas, una vez asimilado el hecho de que nunca podemos justificar empíricamente
-es decir, por medio de enunciados contrastadores- la tesis de que una teoría es verdadera y
que, por tanto, nos enfrentamos a lo sumo con el problema de preferir tentativamente unas
suposiciones a otras, entonces, desde el punto de vista de quien busca teorías verdaderas,
debemos atender a las preguntas: ¿Qué criterios de preferencia hemos de adoptar? ¿Hay
teorías “mejores” que otras? Estas preguntas dan pie a las siguientes consideraciones:
(1) Está claro que el problema de la preferencia surgirá fundamentalmente -tal vez
exclusivamente- en relación con conjuntos de teorías rivales; es decir, teorías que se ofrecen
como soluciones a los mismos problemas.
(2) El teórico que se interesa por la verdad, debe interesarse también por la falsedad, pues
descubrir que un enunciado es falso equivale a descubrir que su negación es verdadera. Por
tanto, la refutación de una teoría posee siempre un interés teórico, pero la negación de una
teoría explicativa no es, a su vez, una teoría explicativa (ni posee, por regla general, el “carácter
empírico” del enunciado contrastador del cual se deriva). Por muy interesante que sea, no
satisface el interés que tiene el teórico por encontrar teorías explicativas verdaderas.
(3) Si el teórico persigue este fin, entonces descubrir dónde falla una teoría, además de
suministrar una información teóricamente interesante, plantea un nuevo problema importante
para una nueva teoría explicativa. Toda teoría nueva no sólo tiene que tener éxito donde lo
tenía la teoría anterior refutada, sino que debe de tener éxito también donde ésta fallaba: es
decir, en el punto en que fue refutada. Si la nueva teoría tiene éxito en ambos casos, será en
cierta medida más afortunada y, por tanto, “mejor” que la vieja.
(4) Además, suponiendo que en el momento t la nueva teoría no se vea refutada por una
nueva contrastación, también en otro sentido será “mejor” que la teoría refutada. En efecto,
no sólo explicará todo lo que explicaba la teoría refutada más otras cosas, sino que además
será considerada como posiblemente verdadera, ya que en el momento t no se ha mostrado su
falsedad.
(5) No obstante, el teórico apreciará tal teoría, no sólo por su éxito y su posible verdad, sino
también por su posible falsedad. Es interesante como objeto de subsiguientes contrastaciones,
es decir, de nuevos intentos de refutación que, de tener éxito, no sólo establecerán una nueva
negación de la teoría, sino también un nuevo problema teórico para la próxima teoría.
Podemos resumir los puntos (1)-(5) del modo siguiente: Por diversas razones, el teórico se
interesa por las teorías no refutadas, sobre todo porque algunas de ellas pueden ser
verdaderas. Preferirá una teoría no refutada a una refutada, con tal de que explique los éxitos y
fallos de la teoría refutada.
(6) Pero la teoría nueva puede ser falsa, como toda teoría no refutada. Por eso el teórico
intentará por todos los medios detectar cualquier teoría falsa en el conjunto de las
competidoras no refutadas; intentará “cazarla”. O sea, intentará ingeniar circunstancias o
situaciones en las cuales es probable que falle una teoría dada que no está refutada, si es que
es falsa. Por tanto, se esforzará en construir contrastaciones rigurosas y situaciones cruciales, lo
que puede entrañar la construcción de una ley falsadora, es decir, una ley que pueda ser quizá
de un nivel de universalidad tan bajo que no sea capaz de explicar el éxito de la teoría a
contrastar, aunque sugiera, no obstante, un experimento crucial que refute, según el resultado,
o la teoría a contrastar o la teoría falsadora.
(7) Con este sistema de eliminación podemos dar con una teoría verdadera. Mas a pesar de
que sea verdadera, este método no puede en ningún caso establecer su verdad, ya que el
número de teorías verdaderas posible sigue siendo infinito en cualquier momento y tras
cualquier número de contrastaciones cruciales. (es otro modo de enunciar el resultado
negativo de Hume). El número de teorías efectivamente propuestas será obviamente finito,
pudiendo ocurrir perfectamente que las refutemos todas y que no podamos inventar una
nueva.
Por otra parte, entre las teorías efectivamente propuestas puede haber más de una sin refutar
en un momento T, con lo que no sabremos cuál debemos preferir. Mas si en un momento t hay
una pluralidad de teorías que siguen compitiendo de este modo, el teórico continuará con el
intento de descubrir cómo diseñar experimentos cruciales entre ellas: es decir, experimentos
que puedan falsar y eliminar consiguientemente algunas de las teorías rivales.
(8) El procedimiento descrito puede conducir a un conjunto de teorías que “compitan” en el
sentido de ofrecer soluciones al menos a algunos problemas comunes, aunque cada una de
ellas ofrezca por su parte solución a diversos problemas que no comparte con las otras.
Aunque exigimos que una nueva teoría resuelva los problemas que resolvía su predecesora
más los que no resolvía, siempre puede ocurrir, como es natural, que se propongan dos o más
teorías rivales nuevas, cada una de las cuales satisfaga estas exigencias y además resuelva
algunos problemas que las otras no resuelven.
(9) El teórico puede estar especialmente interesado, en un momento t, en descubrir la teoría
más contrastable para someterla a nuevas contrastaciones. Ésta ha de ser al mismo tiempo la
que posea el mayor contenido informativo y el mayor poder explicativo. Será la teoría que más
valga la pena someter a nuevas contrastaciones; resumiendo, “la mejor” de las teorías que
compiten en un momento t. Si pasa las contrastaciones, será también la mejor contrastada de
todas las teorías consideradas hasta el momento, incluyendo todas sus predecesoras.
(10) En lo dicho hasta aquí sobre “la mejor teoría” se ha supuesto que una buena teoría no es
ad hoc. La idea de carácter-ad-hoc y su opuesta, que tal vez se pueda denominar “audacia”, son
importantes. las explicaciones ad hoc son las que no son contrastables independientemente;
esto es, independientemente del efecto a explicar. Se formulan para un problema concreto, por
lo que tienen escaso interés teórico. El problema de los grados de independencia de las
contrastaciones, es un problema interesante conectado con los de simplicidad y profundidad.
Es necesario referirlo, y hacerlo depender del problema de la explicación y de las situaciones
problemáticas discutidas, ya que todas estas ideas son importantes para los grados de
“bondad” de las teorías rivales. Además, el grado de audacia de una teoría también depende
de las relaciones que mantiene con sus predecesoras. Lo más interesante es que he conseguido
dar un criterio objetivo para grados muy altos de audacia o carácter-no-ad-hoc. Ocurre que la
nueva teoría, aunque debe explicar lo que explicaba la antigua, la corrige hasta el punto de
que la contradice efectivamente: contiene la vieja teoría, aunque sólo como aproximación. En
este sentido, la teoría de Newton contradice las teorías de Kepler y de Galileo - si bien las
explica por el hecho de contenerlas como aproximaciones- y la teoría de Einstein contradice a
la de Newton, que explica de un modo similar al contenerla como una aproximación.
(11) El método descrito puede denominarse método crítico. Es un método de ensayo y
supresión de errores, de proponer teorías y someterlas a las contrastaciones más rigurosas que
podamos diseñar. Si, mediante suposiciones limitadoras, sólo consideramos posibles un
número finito de teorías rivales, el método puede llevarnos a señalar la teoría verdadera por
eliminación de las competidoras. Normalmente -es decir, cuando el número de teorías posible
es infinito- ni éste ni cualquier otro método pueden asegurar qué teoría es la verdadera.
Aunque no concluyente, el método sigue siendo aplicable.
(12) El enriquecimiento de los problemas mediante la refutación de teorías falsas y las
exigencias formuladas en (3), aseguran que la predecesora de cada una de las nuevas teorías
sea- desde el punto de vista de ésta- una aproximación a esta nueva teoría. Naturalmente,
nada asegura que hayamos de encontrar para cada teoría falsada una sucesora “mejor” o una
aproximación mejor que satisfaga estas exigencias. Nada asegura que podamos progresar
hacia teorías mejores.
(13) Aquí hay que añadir dos cosas. En primer lugar, lo dicho hasta ahora pertenece, como si
dijéramos, a la lógica puramente deductiva, la lógica en la que se planteó L1, L2 y L3. Sin
embargo, al intentar su aplicación a las situaciones prácticas que surgen en la ciencia,
chocamos con problemas de distinta índole por ejemplo, las relaciones entre enunciados
contrastadores y teorías puede que no sean tan precisas como aquí suponemos; incluso es
posible criticar los enunciados contrastadores mismos. Se trata del tipo de problemas que
siempre surgen cuando deseamos aplicar la lógica pura a situaciones reales. En relación con la
ciencia, conduce a los que he llamado reglas metodológicas, reglas de discusión crítica. En
segundo lugar, puede considerarse que estas reglas están sometidas al objetivo general de la
discusión racional que consiste en acercarse a la verdad lo más posible.
(1) Mi teoría de la preferencia nada tiene que ver con la preferencia por las hipótesis “más
probables”. Por el contrario, he mostrado que la contrastabilidad de una teoría aumenta y
disminuye con su contenido informativo y, por tanto, con su improbabilidad (en el sentido del
cálculo de probabilidades). Así, lo más frecuente será que la hipótesis “mejor” o “preferible”
sea la más improbable. Con todo es un error decir que he propuesto un “criterio de
improbabilidad para la elección de hipótesis científicas”; no sólo no tengo un “criterio” general,
sino que muy a menudo sucede que soy incapaz de preferir la hipótesis lógicamente “mejor” o
más improbable, puesto que alguien ha conseguido refutarla experimentalmente. Como es
natural, muchos han considerado que este resultado es molesto, pero mis argumentos
fundamentales son sencillísimos (contenido = improbabilidad).
(2) Introduje originalmente la idea de corroboración o “grado de corroboración” al objeto de
mostrar claramente el carácter absurdo de toda teoría probabilística de la preferencia (y, por
tanto, de toda teoría probabilística de la inducción). Por grado de corroboración de una teoría
entiendo un informe conciso que evalúe el estado (en cierto momento t) de la discusión crítica
de una teoría respecto al modo en que resuelve sus problemas, su grado de contrastabilidad, el
rigor de las contrastaciones a que ha sido sometida y cómo ha salido de ellas. La corroboración
(o grado de corroboración) es, por tanto, un informe evaluativo de su rendimiento pasado. Es
esencialmente comparativo, como la preferencia: en general sólo puede decirse que una teoría
A posee un grado de corroboración más elevado (o más bajo) que su rival B -a la luz de la
discusión crítica que utiliza las contrastaciones- hasta un momento dado, t. Al ser un informe
del rendimiento pasado, alude únicamente a una situación que puede llevar a preferir unas
teorías a otras, pero no dice nada de su rendimiento futuro ni de su “fiabilidad”.
El propósito fundamental de las fórmulas que propuse para definir el grado de corroboración
era mostrar que en muchos casos es preferible la hipótesis más improbable (en el sentido del
cálculo de probabilidades), señalando claramente en qué casos se puede decir esto y en cuáles
no. Puedo mostrar así que la preferibilidad no puede ser una probabilidad en el sentido del
cálculo de probabilidades. Naturalmente, se puede llamar preferible a la teoría más
“probable”: no importan las palabras con tal de que no nos dejemos engañar por ellas.
Resumiendo: A veces podemos decir de dos teorías rivales, A y B, que A es preferible, o está
mejor corroborada, que la teoría B, a la luz del estado de la discusión crítica en el momento t y
de la evidencia empírica (enunciados contrastadores) que tengamos a mano para la discusión.
Obviamente, el grado de corroboración en el momento t (que constituye un enunciado acerca
de la preferibilidad en el momento t) no dice nada sobre el futuro -por ejemplo, sobre el grado
de corroboración en un momento posterior a t. Exactamente, no es más que un informe sobre
el estado, en el momento t, de la discusión acerca de la preferibilidad lógica y empírica de las
teorías rivales.
(3) Ha sido mal interpretado el sentido en que yo empleaba la corroboración como índice del
rendimiento futuro de una teoría: “en lugar de discutir la “probabilidad” de una hipótesis
deberíamos tratar de averiguar qué contrastaciones, qué pruebas ha soportado; esto es,
tendríamos que intentar la averiguación de hasta qué punto ha sido capaz de demostrar que es
apta para sobrevivir -y ello por haber salido indemne de las contrastaciones. En resumen,
deberíamos disponernos a averiguar en qué medida está “corroborada””. Algunas personas
piensan que la expresión “demostrar que es apta para sobrevivir” muestra que hablo aquí de la
aptitud para sobrevivir en el futuro, para salir indemne de contrastaciones futuras. No he sido
yo quien ha sacado de quicio la metáfora darwinista. Nadie supone que una especie que ha
sobrevivido en el pasado vaya a sobrevivir en el futuro: todas las especies que no han logrado
sobrevivir en un momento determinado t han sobrevivido hasta el momento t. sería absurdo
sugerir que la supervivencia darwinista implica de algún modo la expectativa de que continuará
sobreviviendo toda especie que haya sobrevivido hasta este momento.
(4) Tal vez sea útil añadir aquí algo sobre el grado de corroboración de un enunciado s que
pertenece o se deriva lógicamente de una teoría T, aunque sea lógicamente mucho más débil
que ella. Tal enunciado s tendrá menos contenido informativo que la teoría T, lo que significa
que s, y el sistema deductivo S de todos aquellos enunciados que se siguen de s, será menos
contrastable y corroborable que T. pero si T ha sido bien contrastada, entonces podemos decir
que su alto grado de corroboración se aplica a todos los enunciados implicados por ella y, por
tanto, a s y S, aunque s nunca pudiese alcanzar por sí mismo un grado de corroboración tan
alto, debido a su baja corroborabilidad. Esta regla puede sostenerse considerando simplemente
que el grado de corroboración es un medio de enunciar una preferencia por lo que respecta a
la verdad. Así pues, si preferimos T por lo que respecta a su pretensión de verdad, entonces
debemos preferirla junto con todas sus consecuencias, ya que, si T es verdadera, deben serlo
también todas sus consecuencias, aunque separadamente puedan corroborarse peor. Afirmo,
por tanto, que con la corroboración de la teoría de Newton y la descripción de la tierra como
un planeta en rotación, el grado de corroboración del enunciado s, “El sol sale en Roma cada
veinticuatro horas”, ha aumentado considerablemente. La razón estriba en que s, por sí mismo,
no puede contrastarse muy bien. Ahora bien, puesto que la teoría de Newton y la de la
rotación terrestre pueden contrastarse bien, entonces, si son verdaderas, s también lo será. Un
enunciado s, derivable de una teoría T bien contrastada, tiene el mismo grado de
corroboración que T, en tanto en cuanto se considera parte de T; y si s no es derivable de T,
sino de la conjunción de dos teorías, T1 y T2, en cuanto parte de dos teorías, tendrá el mismo
grado de corroboración que la peor contrastada de ambas. Sin embargo, en sí mismo s puede
tener un grado de corroboración muy bajo.
(5) La diferencia fundamental entre mi enfoque y el enfoque que he denominado hace tiempo
“inductivista” consiste en que yo pongo el acento en los argumentos negativos, tales como
casos negativos o contra-ejemplos, refutaciones e intentos de refutación -brevemente, crítica-,
mientras que el inductivista pone el acento en los “casos positivos de los que saca inferencias
no-demostrativas” que pretende que garanticen la “falibilidad” de las conclusiones de estas
inferencias. Para mí, lo único que puede ser “positivo” en el conocimiento científico sólo es
positivo en tanto en cuando ciertas teorías son, en un momento dado, preferidas a otras a la
luz de nuestra discusión crítica consistente en intentos de refutación que incluye
contrastaciones empíricas. Por tanto, incluso lo que puede ser considerado “positivo”, lo es
sólo por respecto a métodos negativos. Este enfoque negativo clarifica muchas cosas; por
ejemplo, las dificultades que se encuentran al explicar satisfactoriamente lo que constituye un
“caso positivo” o un “caso favorable” de una ley.
Preferencia pragmática
El teórico puede no tener ninguna preferencia sobre la “mejor” teoría, es decir, la más
contrastable y la mejor contrastada; puede sentirse desanimado por la solución “escéptica”,
mía y de Hume, a los problemas HL y L1; puede alegar que si no somos capaces de asegurar el
descubrimiento de cuál de las teorías rivales es la verdadera, no le interesa para nada
semejante método -ni siquiera si el método hace razonablemente cierto que si hubiese una
teoría verdadera entre las propuestas, estaría entre las supervivientes, preferidas o
corroboradas. Sin embargo, puede ser que un teórico “puro” más entusiasta o más curioso se
anime con nuestro análisis a proponer una y otra vez nuevas teorías rivales, confiando en que
tal vez una de ellas sea verdadera- aunque nunca seamos capaces de asegurar que alguna de
ellas sea verdadera. El teórico puro tiene, pues, ante sí más de una vía de acción: eligirá un
método como el de ensayo y supresión de errores sólo si su curiosidad supera su frustración
por la inevitable incertidumbre y deficiencia de todos nuestros intentos.
El caso es distinto si lo consideramos como hombre de acción práctica, ya que éste ha de elegir
siempre entre algunas alternativas más o menos concretas, puesto que incluso la inacción es
un tipo de acción. Más toda acción presupone un conjunto de expectativas; es decir, de teorías
sobre el mundo. ¿Qué teoría eligirá el hombre de acción? ¿Se puede hablar de una elección
racional? Esto nos llev a los problemas pragmáticos de la inducción:
Pr1: ¿De qué teoría hemos de fiarnos desde un punto de vista racional, para la actividad
práctica?
Pr2: ¿Qué teoría hemos de preferir, desde un punto de vista racional, para la actividad práctica?
Por las razones expuestas, no considero que el problema psicológico de la inducción forme
parte de mi propia teoría (objetivista) del conocimiento. Con todo, creo que el principio de
transferencia sugiere los siguientes problemas y respuestas.
Ps1: Si consideramos críticamente una teoría desde el punto de vista de los elementos de juicio
suficientes en su favor más bien que desde un punto de vista pragmático, ¿tenemos siempre
un sentimiento de completa seguridad o certeza acerca de su verdad, incluso por lo que se
refiere a las teorías mejor contrastadas, como que el sol sale todos los días?
Creo que la respuesta debe ser: No. Creo que el sentimiento de certeza -la creencia fuerte- que
Hume intentaba explicar, es una creencia pragmática: algo estrechamente relacionado con la
acción y la elección entre alternativas o, incluso, con la necesidad y expectativa de
regularidades. Pero si suponemos que estamos en disposición de reflexionar sobre la evidencia
y lo que nos permite afirmar, entonces hemos de admitir que, después de todo, el sol puede no
salir mañana en Londres -por ejemplo-, porque puede explotar dentro de media hora, con lo
que habrá mañana. Naturalmente, no hemos de tomar “seriamente” -es decir,
pragmáticamente- esta posibilidad, puesto que no sugiere ninguna acción posible. Debemos
considerar nuestras creencias pragmáticas que pueden ser muy fuertes. Preguntamos:
Ps2: ¿Esas “fuertes creencias pragmáticas” que todos mantenemos, como es la creencia en que
habrá un mañana, son el resultado irracional de la repetición?
Mi respuesta es: No. La teoría de la repetición es, en todos los sentidos, insostenible. Estas
creencias son en parte innatas, en parte modificaciones de creencias innatas que surgen del
método de ensayo y supresión de errores. Mas este método es perfectamente “racional”, ya
que corresponde precisamente a ese método de preferencia cuya racionalidad hemos
discutido. Más explícitamente, una creencia pragmática en los resultados de la ciencia no es
irracional, ya que nada hay más “racional” que el método de la discusión crítica que es el
método de la ciencia. Aunque fuese irracional aceptar como cierto cualquiera de sus
resultados, no hay nada “mejor” a la hora de actuar en la práctica: no hay otro método
alternativo que pueda considerarse más racional.
El problema tradicional de la inducción y la invalidez de todos los principios o reglas
de inducción
Considero que el problema kantiano, “¿Cómo pueden ser válidos a priori los enunciados
sintéticos?”, constituye un intento de generalizar Tr1 o Tr2. Por eso tengo a Russell por kantiano,
ya que en algunas de sus fases intentó solucionar Tr2 mediante una justificación a priori. En los
Problems of Philosophy, por ejemplo, Russell formuló Tr2 como sigue “…¿qué clase de creencias
generales serán suficientes, si fueran verdaderas, para justificar el juicio según el cual el sol
saldrá mañana…?”. Para mí, todos estos problemas están mal formulados. Como ocurre con las
versiones probabilísticas del tipo del principio de inducción de Thomas Reid: “lo que ha de ser,
será probablemente como lo que ha sido en circunstancias similares”. Sus autores no han
tomado con suficiente serenidad la crítica lógica de Hume y nunca toman en serio la
posibilidad de que podamos, y debamos, arreglárnoslas sin la inducción por repetición, cosa
que de hecho ocurre. Me parece que todas las objeciones que conozco a mi teoría se formulan
bajo el punto de vista de si ha resuelto o no el problema tradicional de la inducción -es decir, si
he justificado o no la inferencia inductiva. Sin embargo, hay que rechazar las formulaciones
tradicionales del principio de inducción porque suponen, no sólo que nuestra busca de
conocimiento ha tenido éxito, sino también que hemos de poder explicitar por qué. No
obstante, aun suponiendo que nuestra busca de conocimiento ha tenido éxito hasta ahora y
que sabemos algo acerca del universo, este éxito es milagrosamente improbable y, por ende,
inexplicable, ya que apelar a una serie ilimitada de accidentes improbables no constituye una
explicación. (Supongo que lo único que podemos hacer es investigar la casi increíble historia
evolutiva de estos accidentes desde la formación de los elementos hasta la de los organismos).
Una vez hecho esto, se verá que es totalmente obvia, no sólo la tesis HL (y, por tanto, a L1 y Pr1),
sino también la invalidez de cualquier “principio de inducción”.
La idea de un principio de inducción es la de que hay un enunciado -que ha de considerarse
como un principio metafísico válido a priori, probable o, tal vez, como una mera conjetura-
que, de ser verdadero, suministrará buenas razones para que confiemos en regularidades. Si
por “confianza” entendemos simplemente confianza pragmática en la racionalidad de nuestras
preferencias teóricas, en el sentido de Pr2, entonces será claro que no necesitamos ningún
principio de inducción: no precisamos confiar en regularidades -es decir, en la verdad de las
teorías- para justificar esta preferencia. Si, por el contrario, se alude a la “confianza” en el
sentido de Pr1, entonces tal principio de inducción será sencillamente falso. Es más, incluso
será paradójico en el siguiente sentido: nos permitiría confiar en la ciencia, cuando ésta nos
enseña hoy día que sólo en condiciones muy especiales e improbables pueden tener lugar
situaciones que permitan observar regularidades o casos de regularidades. De hecho, la ciencia
nos enseña que tales condiciones difícilmente aparecen en alguna parte del universo y, si
aparecen (digamos, en la tierra), será durante períodos muy cortos desde un punto de vista
cosmológico. Está claro que esta crítica no sólo se aplica a cualquier principio que justifique la
inferencia inductiva basada en la repetición, sino también a cualquier principio que justifique la
“confianza”, en el sentido de Pr1, en el método de ensayo y supresión de errores o en cualquier
otro método posible.
Crítica del objeto y método de las ciencias naturales. Empezaré haciendo una breve exposición
del punto de vista que voy a examinar y que denominaré "la teoría de la ciencia como un cubo"
(o "la teoría de la mente como un cubo"). El punto de partida de esta teoría viene dado por la
doctrina convincente según la cual es necesario haber tenido percepciones -experiencias de los
sentidos- antes de poder conocer algo acerca del mundo. Se supone que de aquí se sigue que
nuestro conocimiento, nuestra experiencia, consta sea de percepciones acumuladas
(empirismo
ingenuo), sea de percepciones asimiladas, ordenadas y clasificadas (opinión sostenida por
Bacon y, en versión más radical, por Kant).
A partir de ellas y con el transcurso del tiempo, nuestro conocimiento del mundo externo
encajaba con él perfectamente. Según este punto de vista, nuestra mente es como un
receptáculo -una especie de cubo- en el que se acumulan las percepciones y el conocimiento.
Los empiristas estrictos nos recomiendan interferir lo menos posible con este proceso de
acumulación de conocimiento. El conocimiento verdadero es el conocimiento puro no
contaminado por esos prejuicios que tan proclives somos a añadir y mezclar con nuestras
percepciones; sólo éstas constituyen la experiencia pura y simple. El error es el resultado de
estos añadidos, de nuestras perturbaciones e interferencias con el proceso de acumulación de
conocimiento. A esto Kant opone su teoría: niega que las percepciones puedan ser puras y
afirma que la experiencia es el resultado de un proceso de asimilación y transformación -el
resultado de combinar las percepciones de los sentidos con determinados ingredientes puestos
por nuestras mentes. Las percepciones son, como si dijéramos, el material bruto que fluye del
exterior del cubo, donde sufre cierta elaboración (automática) -algo semejante a la digestión o
quizá a la clasificación sistemática-.
No creo que ninguno de estos dos puntos de vista nos suministre un panorama adecuado de lo
que considero el proceso real de adquisición de experiencia, ni del método que se emplea en la
investigación o descubrimiento. Hay que admitir que el punto de vista kantiano podría
interpretarse de modo que quede más próximo a mi opinión que el empirismo puro.
Naturalmente, acepto que la ciencia es imposible sin experiencia. Aunque acepto todo esto,
sostengo que las percepciones no son algo así como el material bruto -como ocurre según la
"teoría del cubo"- a partir del cual construimos la "experiencia" o la "ciencia".
En la ciencia, lo que representa el papel esencial es la observación más bien que la percepción.
Con todo, la observación es un proceso en el que desempeñamos un papel muy activo. Una
observación es una percepción planificada y preparada. No "tenemos" una observación
[aunque podamos “tener” una experiencia sensible], sino que "hacemos" una observación.
Toda observación va precedida por un problema, una hipótesis; en todo caso, por algo que nos
interesa, por algo teórico o especulativo. Por eso las observaciones son siempre selectivas y
presuponen algo así como un principio de selección.
Sabemos que todas las cosas vivas, hasta las más primitivas, reaccionan a determinados
estímulos. Dichas reacciones son específicas; es decir, el número de reacciones posibles es
limitado para cada organismo (y para cada tipo de organismo). Podemos decir que todo
organismo posee cierto conjunto innato de reacciones posibles o cierta disposición a
reaccionar de tal o cual manera. Este conjunto de disposiciones puede cambiar a medida que
aumenta la edad del organismo (quizá en parte bajo la influencia de las impresiones de los
sentidos o las percepciones) o bien puede permanecer constante. No obstante, sea como sea,
podemos suponer que, en un momento dado de su vida, el organismo está dotado de un
conjunto de posibilidades y disposiciones reactivas, conjunto que podemos considerar su
estado interno [en ese momento]. De este estado interno del organismo dependerá el modo
en que reaccione al medio externo. Por eso, estímulos físicos idénticos pueden producir
diferentes reacciones en momentos distintos, y estímulos físicamente distintos pueden dar
lugar a idénticas reacciones. Así pues, sólo diremos que un organismo "aprende de la
experiencia" si sus disposiciones reactivas cambian en el transcurso del tiempo y si podemos
suponer que dichos cambios no dependen de cambios [evolutivos] internos del estado del
organismo, sino que también están en función del estado cambiante del medio exterior. (Se
trata de una condición necesaria, aunque no es suficiente, para poder decir que el organismo
aprende de la experiencia.) En otras palabras, consideramos los procesos mediante los cuales
aprende el organismo como una especie de cambio o modificación en su disposición reactiva y
no, al modo de la teoría del cubo, como una acumulación (ordenada, clasificada o asociada) de
recuerdos dejados por las percepciones pasadas. Estas modificaciones en la disposición
reactiva del organismo, que van a constituir el proceso de aprendizaje, se relacionan
íntimamente con la noción fundamental de "expectativa", así como con la de "expectativa
contrariada". Podemos caracterizar las expectativas como disposiciones reactivas o como
preparativos para reaccionar que se adaptan a [o anticipan] un estado futuro del medio. Esta
caracterización parece más adecuada que la que
describe las expectativas en términos de estados de conciencia, pues sólo tomamos conciencia
de muchas de nuestras expectativas cuando se ven contrariadas al no cumplirse. Un ejemplo
sería encontrar una huella inesperada en nuestro camino: el carácter inesperado de la huella
nos hace conscientes del hecho de que esperábamos encontrarnos con una superficie lisa. Este
contratiempo nos obliga a corregir nuestro sistema de expectativas. El proceso de aprendizaje
consiste en gran medida en correcciones de este tipo; es decir, en la eliminación de
determinadas expectativas [contrariadas].
Aproximadamente entre el siglo cinco y seis antes de Cristo podemos encontrar en la antigua
Grecia los primeros comienzos de la evolución de algo así como un método científico. Lo que
considero nuevo en la filosofía griega, no consiste tanto en la sustitución de los mitos por algo
más “científico”, sino una nueva actitud frente a los mitos. Esta nueva actitud a que me refiero
es la actitud crítica. En lugar de transmitir dogmáticamente la doctrina [con el único fin de
conservar la tradición auténtica] encontramos una discusión crítica de la misma. La duda y la
crítica existían ya sin duda antes de este estadio. Lo nuevo, sin embargo, reside en que esa
duda y crítica se convierten a su vez en parte integrante de la tradición de la escuela. Una
tradición de orden superior sustituye la tradicional conservación del dogma: en lugar de la
teoría tradicional -en lugar del mito- nos encontramos con la tradición de criticar teorías (que al
principio difícilmente pueden ser algo más que mitos). Sólo en el transcurso de esta discusión
crítica se recaba el testimonio de la observación.
¿Acaso son satisfactorias todas las explicaciones dotadas de esta estructura? ¿Acaso constituye
nuestro ejemplo, pongamos por caso, (el ejemplo en que se explica la muerte de una rata
aludiendo al matarratas) una explicación satisfactoria? No lo sabemos: las contrastaciones
pueden mostrar que la rata, a pesar de haber muerto, no había ingerido un raticida. Si un
amigo se muestra escéptico acerca de nuestra explicación y nos pregunta, "¿Cómo sabes que la
rata ha ingerido un veneno?", es evidente que no bastará con responder, "¿Cómo puedes
dudarlo, no ves que está muerta?" Realmente, todo argumento que podemos aportar en apoyo
de una hipótesis ha de ser distinto e independiente del explicandum. Si sólo podemos aducir
como testimonio en favor de la hipótesis el explicandum mismo, vemos que nuestra explicación
es circular y, por tanto, totalmente insatisfactoria. Si, por otra parte, podemos responder,
"Analiza el contenido de su estómago y encontrarás una dosis de veneno” y si esta predicción
(que es nueva, es decir, no está implicada por el explicandum sólo) muestra ser verdadera,
entonces consideraremos que nuestra explicación es por lo menos una hipótesis bastante
buena.
Pero he de añadir algo más, pues nuestro escéptico amigo puede poner también en tela de
juicio la verdad de la ley universal. Puede decir, por ejemplo, "De acuerdo con que esta rata ha
ingerido un producto químico, ¿pero, por qué había de morir a causa de ello?". Una vez más,
no podemos
responder: "¿Acaso no ves que ha muerto? Esto precisamente nos muestra cuan peligroso es
ingerir dicho producto", ya que esto convertiría una vez más en circular e insatisfactoria
nuestra explicación. Para hacer que sea satisfactoria habremos de someter la ley universal a
contrastaciones independientes del explicandum.
Algunas consideraciones y análisis del esquema general: Empezaré con una observación sobre
las ideas de causa y efecto. El estado de la cuestión descrito por las condiciones iniciales
singulares puede denominarse la "causa" y el descrito por el explicandum, el "efecto". Hemos
de tener siempre presente que estos términos sólo adquieren un significado por respecto a
una teoría o ley universal. Es la teoría o la ley la que constituye el nexo lógico entre la causa y el
efecto, por lo que el enunciado "A es la causa de B" ha de analizarse: "Hay una teoría T que es
contrastable y ha sido contrastada independientemente de la cual, en conjunción con una
descripción, A, de una situación específica independientemente contrastada, podemos deducir
lógicamente una descripción, B, de otra situación específica". (Muchos filósofos, incluso Hume,
han pasado por alto la existencia de un nexo lógico entre "causa" y "efecto" que está
presupuesto en la utilización misma de estos términos).
La tarea de la ciencia no se limita a buscar explicaciones teóricas puras; también tiene aspectos
prácticos: aplicaciones técnicas, así como predicciones. Ambas pueden analizarse mediante el
mismo esquema lógico para analizar la explicación.
U0 es aquí la ley universal, la hipótesis universal que está a examen. Se mantiene constante a
través de las contrastaciones y se emplea junto con otras varias leyes U1, U2, … y otras
condiciones iniciales diversas I1, I2, … a fin de derivar diversas predicciones P1, P2, … que pueden
ser confrontadas con hechos observables reales.
El procedimiento del historiador se puede representar con el esquema siguiente:
Aquí I0 es l hipótesis histórica, la descripción histórica que ha de ser examinada o contrastada.
Se mantiene constante a través de las contrastaciones y se combina con diversas leyes
(sumamente obvias) U1, U2, U3, … y con condiciones iniciales correspondientes I1, I2, I3, … para
derivar diversas predicciones P1, P2, P3, etc.
Una explicación será satisfactoria sólo si sus leyes universales, su teoría, se puede contrastar
independientemente del explicandum. Mas esto significa que una teoría explicativa
satisfactoria siempre debe decir más de lo que ya estaba contenido en los explicando que nos
impulsaron inicialmente a proponerla. En otras palabras, por principio, las teorías satisfactorias
deben transcender los casos empíricos que las hicieron surgir, pues de lo contrario, como
hemos visto,
no llevarían más que a explicaciones circulares.
Tenemos aquí un principio metodológico que está en contradicción directa con las tendencias
positivistas y empiristas ingenuas [o inductivistas]. Es un principio que nos exige atrevernos a
proponer hipótesis audaces (que, a ser posible, abran nuevos campos de observación) y no
aquellas generalizaciones prudentes a partir de observaciones "dadas" que [desde Bacon]
continúan siendo los ídolos de todo empirista ingenuo.
Nuestro punto de vista, según el cual el objeto de la ciencia es proponer explicaciones o (lo que
en esencia conduce a la misma situación lógica) crear las bases teóricas para predicciones y
otras aplicaciones, este punto de vista, nos ha llevado a la exigencia metodológica de que
nuestras teorías han de ser contrastables. Con todo, hay grados de contrastabilidad. Unas
teorías se pueden contrastar mejor que otras. Si fortalecemos nuestra exigencia metodológica
y tendemos a teorías que se puedan contrastar cada vez mejor, desembocamos en un principio
metodológico -o un enunciado sobre el objeto de la ciencia- cuya adopción [inconsciente] en el
pasado explicaría racionalmente gran número de acontecimientos de la historia de la ciencia:
los explicaría como pasos que llevan al cumplimiento del objetivo de la ciencia.
(Simultáneamente, enuncia dicho objeto al decirnos qué se considera progreso en ciencia,
pues frente a la mayoría de las otras actividades humanas -particularmente en arte y música-
en ciencia se da realmente un progreso.)
El análisis y comparación de los grados de contrastabilidad de diversas teorías muestra que la
contrastabilidad de una teoría aumenta con su grado de universidad, así como con su grado de
exactitud o precisión.
La situación es bien sencilla. Con el grado de universalidad de una teoría aumenta la amplitud
de sucesos sobre los que la teoría puede hacer predicciones y, en consecuencia, también
aumenta el dominio de posibles falsaciones. Ahora bien, la teoría que es más fácilmente
falsada es a la vez la que mejor se puede contrastar. Si consideramos el grado de exactitud o
precisión llegamos a una situación similar. Un enunciado preciso es más fácil de refutar que
otro vago y por eso puede ser mejor contrastado. Esta consideración nos permite también
explicar la exigencia de que los enunciados cualitativos sean sustituidos, si ello es posible, por
otros cuantitativos, en virtud de nuestro principio de aumentar el grado de contrastabilidad de
las teorías. (De este modo, también podemos explicar el papel desempeñado por la medición
en la contrastación de teorías; se trata de un recurso que se hace cada vez más importante en
el transcurso del progreso científico, aunque no se puede manejar [como a menudo sucede]
como rasgo característico de la ciencia o de la formación de teorías en general. No hemos de
olvidar que los procedimientos de medición sólo empiezan a usarse en un estadio muy
avanzado del desarrollo de algunas ciencias y que, incluso hoy, no se emplean en todas ellas.
Tampoco hemos de olvidar que toda medición depende de supuestos teóricos.)
Es importante señalar otro punto relacionado con mi análisis del concepto (o mejor la práctica)
de explicación. De Descartes [tal vez incluso desde Copérnico] a Maxwell, la mayoría de los
físicos trataban de explicar las nuevas relaciones descubiertas mediante modelos mecánicos; es
decir, intentaban reducirlas a leyes de empuje o presión con las que estaban familiarizados por
el manejo cotidiano de cosas físicas -cosas pertenecientes al reino de los "cuerpos físicos de
tamaño medio-. Descartes montó sobre esta idea un programa para todas las ciencias; incluso
exigía que nos limitásemos a modelos que funcionasen únicamente por empujes o presiones.
Tal programa sufrió su primer derrota con el éxito de la teoría de Newton; mas su derrota (que
constituía un serio motivo de aflicción para Newton y sus contemporáneos) fue pronto
olvidada y la atracción gravitatoria fue admitida en el programa en pie de igualdad con el
empuje y presión. También Maxwell trató de desarrollar su teoría del campo electromagnético
en forma de modelo mecánico del éter, pero terminó por abandonar dicho intento. Con ello el
modelo mecánico perdió casi toda su importancia: sólo quedaron las ecuaciones que
originalmente pretendían describir el modelo mecánico del éter. [Se interpretaron como
descripciones de ciertas propiedades no mecánicas del éter.]
Con este tránsito de una teoría mecánica a otra abstracta, se alcanza un estadio en la evolución
de la ciencia en el que, prácticamente, sólo se exige de las teorías explicativas que puedan ser
contrastadas independientemente; si ello es posible, estamos dispuestos a operar con teorías
que puedan representarse intuitivamente con diagramas dibujables [o con modelos mecánicos
"dibujables" o "visualizables"], que nos suministren teorías "concretas". Pero si no los podemos
obtener, estamos dispuestos a trabajar con teorías matemáticas "abstractas" [que a pesar de
todo pueden ser perfectamente "comprensibles"].
Nuestro análisis general de la idea de explicación no se ve afectado, evidentemente, por los
fallos de un modelo o representación particular. Se aplica a todo tipo de teorías abstractas del
mismo modo que se aplica a los modelos mecánicos o de otro tipo. De hecho, desde nuestro
punto de vista, los modelos no son más que intentos de explicar leyes nuevas en términos de
viejas leyes que ya han sido contrastadas [junto con suposiciones relativas a condiciones
iniciales típicas o a la presencia de una estructura típica -es decir, el modelo en un sentido más
restringido-. A menudo, los modelos desempeñan un papel importante en la extensión y
elaboración de teorías, pero es preciso distinguir entre un modelo nuevo montado sobre viejas
suposiciones teóricas y una nueva teoría -es decir, un nuevo sistema de supuestos teóricos.
No hay vía ni real ni de otro tipo capaz de llevarnos necesariamente de un conjunto "dado" de
hechos específicos a una ley universal. Lo que llamamos "leyes" son hipótesis o conjeturas que
siempre forman parte de un sistema teórico más amplio [de hecho, de todo un horizonte de
expectativas] y que, por tanto, nunca pueden ser sometidas aisladamente a contraste. El
progreso de la ciencia está compuesto de ensayos, supresión de errores y ulteriores ensayos
guiados por la experiencia adquirida en el transcurso de ensayos y errores previos. Nunca
podemos considerar que una teoría particular es absolutamente cierta: toda teoría puede
tornarse problemática por muy bien corroborada que pueda parecer ahora. Ninguna teoría
científica es sacrosanta o está más allá de la crítica. Muchas veces, especialmente en el siglo
pasado, hemos olvidado esto, porque estábamos impresionados por las tan repetidas, y
verdaderamente magníficas, corroboraciones de determinadas teorías mecánicas que
terminaron por ser consideradas indubitablemente verdaderas. El tormentoso desarrollo de la
física a partir del cambio de siglo nos ha dado una buena lección; ahora hemos llegado a ver
que la misión del científico es someter continuamente su teoría a nuevas contrastaciones y que
ninguna teoría puede ser tenida por algo acabado. La contrastación consiste en tomar la teoría
a contrastar y combinarla con todos los tipos posibles de condiciones iniciales, así como con
otras teorías, para confrontar luego las predicciones resultantes con la realidad. Si
desembocamos en expectativas contrariadas, en refutaciones, entonces hemos de reconstruir
la teoría. En este proceso desempeña un papel muy importante el hecho de que se vean
contrariadas algunas de las expectativas con las que antaño abordábamos, ávidamente, la
realidad. Puede compararse a la experiencia del ciego que choca o topa con un obstáculo,
haciéndose así consciente de su existencia. Entramos efectivamente en contacto con la
"realidad" mediante la falsación de nuestras suposiciones. La única experiencia "positiva" que
sacamos de la realidad es el descubrimiento y eliminación de nuestros errores.
Evidentemente, siempre es posible salvar una teoría falsada mediante hipótesis auxiliares. Pero
no es éste el camino progresivo de las ciencias. La reacción adecuada frente a una falsación es
buscar teorías nuevas que parezcan ofrecernos una visión mejor de los hechos. A la ciencia no
le interesa decir la última palabra, si eso significa cerrar nuestra mente a experiencias
falsadoras, sino que le interesa más bien aprender de nuestra experiencia; es decir, de nuestros
errores. Hay un modo de formular las teorías científicas que apunta con particular claridad a la
posibilidad de su falsación: podemos formularlas en forma de prohibiciones [o enunciados
existenciales negativos], como por ejemplo, "No existe un sistema físico cerrado, tal que la
energía cambie en una parte del mismo sin que tengan lugar cambios compensadores en otra
parte" (primera ley de la termodinámica). O, "No existe una máquina con una eficiencia del 100
por 100" (segunda ley). Se puede mostrar que los enunciados universales y los existenciales
negativos son lógicamente equivalentes. Esto nos permite formular todas las leyes universales
del modo indicado; es decir, como prohibiciones. No obstante, se trata de prohibiciones
dirigidas al técnico, no al científico. A aquél le indican cómo ha de proceder si no quiere
desperdiciar sus energías. Mas para el científico son desafíos a contrastar y falsar; le incitan a
intentar descubrir aquellas situaciones cuya existencia prohíben o niegan.
Así, la ciencia es la invención continua de teorías nuevas y el examen infatigable de su
capacidad de arrojar luz sobre la experiencia. Los principios del progreso científico son muy
simples. Exigen que abandonemos la vieja idea de que podemos alcanzar la certeza o incluso
un alto grado de "probabilidad" en el sentido del cálculo de probabilidades con las
proposiciones y teorías científicas (idea que procede de la asimilación de la ciencia con la
magia y del científico con el mago): la tarea del científico no es descubrir la certeza absoluta,
sino descubrir teorías cada vez mejores capaces de someterse a contrastaciones cada vez más
rigurosas [que nos guían, por tanto, y nos desvelan siempre nuevas experiencias,
iluminándolas]. Pero esto quiere decir que dichas teorías han de ser falsables: la ciencia
progresa mediante su falsación.
Popper, K. – La lógica de la investigación científica
El problema de la inducción
De acuerdo con una tesis que tiene gran aceptación, las ciencias empíricas pueden
caracterizarse por el hecho de que emplean los llamados <<métodos inductivos>>: según esta
tesis, la lógica de la investigación científica sería idéntica a la lógica inductiva, es decir, al
análisis lógico de tales métodos inductivos. Es corriente llamar <<inductiva>> a una inferencia
cuando pasa de enunciados singulares (llamados, a veces, enunciados <<particulares>>), tales
como descripciones de los resultados de observaciones o experimentos, a enunciados
universales, tales como hipótesis o teorías. Ahora bien, desde un punto de vista lógico dista
mucho de ser obvio que estemos justificados al inferir enunciados universales partiendo de
enunciados singulares, por elevado que sea su número; pues cualquier conclusión que
saquemos de este modo corre siempre el riesgo de resultar un día falsa: así, cualquiera que sea
el número de ejemplares de cisnes blancos que hayamos observado, no está justificada la
conclusión de que todos los cisnes sean blancos.
Se conoce con el nombre del problema de la inducción la cuestión acerca de si están
justificadas las inferencias inductivas, o de bajo qué condiciones lo están. El problema de la
inducción puede formularse, asimismo, como la cuestión sobre cómo establecer la verdad de
los enunciados universales basados en la experiencia -como son las hipótesis y los sistemas
teóricos de las ciencias empíricas--. Pues muchos creen que la verdad de estos enunciados se
<<sabe por experiencia>>; sin embargo, es claro que todo informe en que se da cuenta de una
experiencia -o de una observación, o del resultado de un experimento- no puede ser
originariamente un enunciado universal, sino sólo un enunciado singular. Por lo tanto, quien
dice que sabemos por experiencia la verdad de un enunciado universal suele querer decir que
la verdad de dicho enunciado puede reducirse, de cierta forma, a la verdad de otros
enunciados -éstos singulares- que son verdaderos según sabemos por experiencia: lo cual
equivale a decir que los enunciados universales están basados en inferencias inductivas. Así
pues, la pregunta acerca de si hay leyes naturales cuya verdad nos conste viene a ser otro
modo de preguntar si las inferencias inductivas están justificadas lógicamente.
Mas si queremos encontrar un modo de justificar las inferencias inductivas, hemos de intentar,
en primer término, establecer un principio de inducción. Semejante principio sería un
enunciado con cuya ayuda pudiéramos presentar dichas inferencias de una forma lógicamente
aceptable. A los ojos de los mantenedores de la lógica inductiva, la importancia de un principio
de inducción para el método científico es máxima: <<... este principio -dice Reichenbach-
determina la verdad de las teorías científicas; eliminarlo de la ciencia significaría nada menos
que privar a ésta de la posibilidad de decidir sobre la verdad o falsedad de sus teorías; es
evidente que sin él la ciencia perdería el derecho de distinguir sus teorías de las creaciones
fantásticas y arbitrarias de la imaginación del poeta>>.
Pero tal principio de inducción no puede ser una verdad puramente lógica, como una
tautología o un enunciado analítico. En realidad, si existiera un principio de inducción
puramente lógico no habría problema de la inducción; pues, en tal caso, sería menester
considerar todas las inferencias inductivas como transformaciones puramente lógicas, o
tautológicas, exactamente lo mismo que ocurre con las inferencias de la lógica deductiva. Por
tanto, el principio de inducción tiene que ser un enunciado sintético: esto es, uno cuya
negación no sea contradictoria, siro lógicamente posible. Surge, pues, la cuestión acerca de por
qué habría que aceptar semejante principio, y de cómo podemos justificar racionalmente su
aceptación. Algunas personas que creen en la lógica inductiva se precipitan a señalar, con
Reichenbach, que <<la totalidad de la ciencia acepta sin reservas el principio de inducción, y
que nadie puede tampoco dudar de este principio en la vida corriente>>. No obstante, aun
suponiendo que fuese así -después de todo, <<la totalidad de la ciencia>> podría estar en un
error- yo seguiría afirmando que es superfluo todo principio de inducción, y que lleva
forzosamente a incoherencias (incompatibilidades) lógicas. A partir de la obra de Hume debería
haberse visto claramente que aparecen con facilidad incoherencias cuando se admite el
principio de inducción; y también que difícilmente pueden evitarse, ya que, a su vez, el
principio de inducción
tiene que ser un enunciado universal. Así pues, si intentamos afirmar que sabemos por
experiencia que es verdadero, reaparecen de nuevo justamente los mismos problemas que
motivaron su introducción: para justificarlo tenemos que utilizar inferencias inductivas; para
justificar éstas hemos de suponer un principio de inducción de orden superior, y así
sucesivamente. Por tanto, cae por su base el intento de fundamentar el principio de inducción
en la experiencia, ya que lleva, inevitablemente, a una regresión infinita.
Kant trató de escapar a esta dificultad admitiendo que el principio de inducción (que él llamaba
<<principio de causación universal>>) era <<válido a priori>>. Pero, a mi entender, no tuvo
éxito en su ingeniosa tentativa de dar una justificación a priori de los enunciados sintéticos.
Por mi parte, considero que las diversas dificultades que acabo de esbozar de la lógica
inductiva son insuperables. Y me temo que lo mismo ocurre con la doctrina, tan corriente hoy,
de que las inferencias inductivas, aun no siendo <<estrictamente válidas>>, pueden alcanzar
cierto grado de <<seguridad>> o de <<probabilidad>>. Esta doctrina sostiene que las
inferencias inductivas son <<inferencias probables>>. <<Hemos descrito -dice Reichenbach- el
principio de inducción como el medio por el que la ciencia decide sobre la verdad. Para ser más
exactos, deberíamos decir que sirve para decidir sobre la probabilidad: pues no le es dado a la
ciencia llegar a la verdad ni a la falsedad..., más los enunciados científicos pueden alcanzar
únicamente grados continuos de probabilidad, cuyos límites superior e inferior, inalcanzables,
son la verdad y la falsedad>>.
En resumen: la lógica de la inferencia probable o <<lógica de la probabilidad>>, como todas las
demás formas de la lógica inductiva, conduce, bien a una regresión infinita, bien a la doctrina
del apriorismo.
La teoría que desarrollaremos se opone directamente a todos los intentos de apoyarse en las
ideas de una lógica inductiva. Podría describírsela como la teoría del método deductivo de
contrastar, o como la opinión de que una hipótesis sólo puede contrastarse empíricamente -y
únicamente después de que ha sido formulada. Para poder desarrollar esta tesis (que podría
llamarse <<deductivismo>>, por contraposición al <<inductivismo>>) es necesario que ponga
en claro primero la distinción entre la psicología del conocimiento, que trata de hechos
empíricos, y la lógica del conocimiento, que se ocupa exclusivamente de relaciones lógicas.
Pues la creencia en una lógica inductiva se debe, en gran parte, a una confusión de los
problemas psicológicos con los epistemológicos.
El problema de la demarcación
Entre las muchas objeciones que pueden hacerse contra las tesis que he propuesto, la más
importante es la siguiente: al rechazar el método de la inducción privo a la ciencia empírica de
lo que parece ser su característica más importante; es decir, hago desaparecer las barreras que
separan la ciencia de la especulación metafísica. Mi respuesta a esta objeción es que mi
principal razón para rechazar la lógica inductiva es precisamente que no proporciona un rasgo
discriminador apropiado del carácter empírico, no metafísico, de un sistema teórico; o, en otras
palabras, que no proporciona un <<criterio de demarcación>> apropiado.
Llamo problema de la demarcación al de encontrar un criterio que nos permita distinguir entre
las ciencias empíricas, por un lado, y los sistemas <<metafísicos>>, por otro.
Hume conoció este problema e intentó resolverlo; con Kant se convirtió en el problema central
de la teoría del conocimiento. Si, siguiendo a Kant, llamamos <<problema de Hume>> al de la
inducción, deberíamos designar al problema de la demarcación como <<problema de Kant>>.
De estos dos problemas -que son fuente de casi todos los demás de la teoría del conocimiento-
el de la demarcación es, según entiendo, el más fundamental. En realidad, la razón principal
por la que los epistemólogos con inclinaciones empiristas tienden a prender su fe en el
<<método de la inducción>>, parece ser que la constituye su creencia de que éste es el único
método que puede proporcionar un criterio de demarcación apropiado: esto se aplica,
especialmente, a los empiristas que siguen las banderas del <<positivismo>>.
Los antiguos positivistas estaban dispuestos a admitir únicamente como científicos o legítimos
aquellos conceptos (o bien nociones, o ideas) que, como ellos decían, derivaban de la
experiencia; o sea, aquellos conceptos que ellos creían lógicamente reducibles a elementos de
la experiencia sensorial, tales como sensaciones (o datos sensibles), impresiones,
percepciones, recuerdos visuales o auditivos, etc. Los positivistas modernos son capaces de ver
con mayor claridad que la ciencia no es un sistema de conceptos, sino más bien un sistema de
enunciados. En consecuencia, están dispuestos a admitir únicamente como científicos o
legítimos los enunciados que son reducibles a enunciados elementales (o «atómicos») de
experiencia -a <<juicios de percepción>>, <<proposiciones atómicas>>, <<cláusulas
protocolarias>> o como los quieran llamar-. No cabe duda de que el criterio de demarcación
implicado de este modo se identifica con la lógica inductiva que piden. Desde el momento en
que rechazo la lógica inductiva he de rechazar también todos estos intentos de resolver el
problema de la demarcación. El hallazgo de un criterio de demarcación aceptable tiene que ser
una tarea crucial de cualquier epistemología que no acepte la lógica inductiva.
La tarea de formular una definición aceptable de la idea de ciencia empírica no está exenta de
dificultades. Algunas de ellas surgen del hecho de que tienen que existir muchos sistemas
teóricos cuya estructura lógica sea muy parecida a la del sistema aceptado en un momento
determinado como sistema de la ciencia empírica. En ocasiones se describe esta situación
diciendo que existen muchísimos <<mundos lógicamente posibles>> -posiblemente un número
infinito de ellos-. Y, con todo, se pretende que el sistema llamado <<ciencia empírica>>
represente únicamente un mundo: el <<mundo real>> o <<mundo de nuestra experiencia>>.
Con objeto de precisar un poco más esta afirmación, podemos distinguir tres requisitos que
nuestro sistema teórico empírico tendrá que satisfacer. Primero, ha de ser sintético, de suerte
que pueda representar un mundo no contradictorio, posible; en segundo lugar, debe satisfacer
el criterio de demarcación, es decir, no será metafísico, sino representará un mundo de
experiencia posible; en tercer término, es menester que sea un sistema que se distinga -de
alguna manera- de otros sistemas semejantes por ser el que represente nuestro mundo de
experiencia. Mas, ¿cómo ha de distinguirse el sistema que represente nuestro mundo de
experiencia? He aquí la respuesta: por el hecho de que se le ha sometido a contraste y ha
resistido las contrastaciones. Esto quiere decir que se le ha de distinguir aplicándole el método
deductivo que pretendo analizar y describir. Según esta opinión, la <<experiencia>> resulta ser
un método distintivo mediante el cual un sistema teórico puede distinguirse de otros; con lo
cual la ciencia empírica se caracteriza -al parecer no sólo por su forma lógica, sino por su
método de distinción. (Desde luego, ésta es también la opinión de los inductivistas, que
intentan caracterizar la ciencia empírica por su empleo del método inductivo.) Por tanto, puede
describirse la teoría del conocimiento, cuya tarea es el análisis del método o del proceder
peculiar de la ciencia empírica, como una teoría del método empírico -una teoría de lo que
normalmente se llama experiencia.
El criterio de demarcación inherente a la lógica inductiva -esto es, el dogma positivista del
significado o sentido- equivale a exigir que todos los enunciados de la ciencia empírica (o,
todos los enunciados <<con sentido>>) sean susceptibles de una decisión definitiva con
respecto a su verdad y a su falsedad; podemos decir que tienen que ser <<decidibles de modo
concluyente>>. Esto quiere decir que han de tener una forma tal que sea lógicamente posible
tanto verificarlos como falsarlos. Así, dice Schlick: <<… un auténtico enunciado tiene que ser
susceptible de verificación concluyente>>; y Waismann escribe, aún con mayor claridad: <<Si
no es posible determinar si un enunciado es verdadero, entonces carece enteramente de
sentido: pues el sentido de un enunciado es el método de su verificación>>. Ahora bien; en mi
opinión, no existe nada que pueda llamarse inducción. Por tanto, será lógicamente inadmisible
la inferencia de teorías a partir de enunciados singulares que estén <<verificados por la
experiencia>>. Así pues, las teorías no son nunca verificables empíricamente. Si queremos
evitar el error positivista de que nuestro criterio de demarcación elimine los sistemas teóricos
de la ciencia natural, debemos elegir un criterio que nos permita admitir en el dominio de la
ciencia empírica incluso enunciados que no puedan verificarse. Pero, ciertamente, sólo
admitiré un sistema entre los científicos o empíricos si es susceptible de ser contrastado por la
experiencia. Estas consideraciones nos sugieren que el criterio de demarcación que hemos de
adoptar no es el de la verificabilidad, sino el de la falsabilidad de los sistemas. (Propongo la
falsabilidad como criterio de demarcación, pero no de sentido. He criticado el empleo de la
idea de sentido como criterio de demarcación, y ataco el dogma del sentido. Por tanto, es un
puto mito (aunque gran número de refutaciones de mi teoría están basadas en él) decir que
haya propuesto jamás la falsabilidad como criterio de sentido. La falsabilidad separa dos tipos
de enunciados perfectamente dotados de sentido, los falsables y los no falsables; traza una
línea dentro del lenguaje con sentido, no alrededor de él). Dicho de otro modo: no exigiré que
un sistema científico pueda ser seleccionado de una vez para siempre, en un sentido positivo;
pero sí que sea susceptible de selección en un sentido negativo por medio de contrastes o
pruebas empíricas: ha de ser posible refutar por la experiencia un sistema científico empírico.
(Así, el enunciado <<lloverá o no lloverá aquí mañana>> no se considerará empírico, por el
simple hecho de que no puede ser refutado; mientras que a este otro, <<lloverá aquí
mañana>>, debe considerársele empírico).
Pueden hacerse varias objeciones al criterio de demarcación que propongo. En primer lugar,
puede muy bien parecer que toda sugerencia de que la ciencia -que, según se dice, nos
proporciona informaciones positivas- haya de caracterizarse por satisfacer una exigencia
negativa, como es la de refutabilidad, se encamina en una dirección falsa. Sin embargo, esta
objeción carece de peso, pues el volumen de información positiva que un enunciado científico
comporta es tanto mayor cuanto más fácil es que choque -debido a su carácter lógico- con
enunciados singulares posibles. (No en vano llamamos <<leyes>> a las leyes de la Naturaleza:
cuanto más prohíben más dicen). Puede también parecer que cabe suscitar objeciones contra
la falsabilidad como criterio de demarcación análogas a las que yo he suscitado contra la
verificabilidad. Este ataque no me alteraría. Mi propuesta está basada en una asimetría entre la
verificabilidad y la falsabilidad: asimetría que se deriva de la forma lógica de los enunciados
universales. Pues éstos no son jamás deductibles de enunciados singulares, pero sí pueden
estar en contradicción con estos últimos. En consecuencia, por medio de inferencias
puramente deductivas (valiéndose del modus tollens de la lógica clásica) es posible argüir de la
verdad de enunciados singulares la falsedad de enunciados universales. Una argumentación de
esta índole, que lleva a la falsedad de enunciados universales, es el único tipo de inferencia
estrictamente deductiva que se mueve, como si dijéramos, en «dirección inductiva»: esto es,
de enunciados singulares a universales. Más grave puede parecer una tercera objeción. Podría
decirse que, incluso admitiendo la asimetría, sigue siendo imposible -por varias razones- falsar
de un modo concluyente un sistema teórico: pues siempre es posible encontrar una vía de
escape de la falsación, por ejemplo, mediante la introducción ad hoc de una hipótesis auxiliar o
por cambio ad hoc de una definición; se puede, incluso, sin caer en incoherencia lógica,
adoptar la posición de negarse a admitir cualquier experiencia falsadora. Se reconoce que los
científicos no suelen proceder de este modo, pero el procedimiento aludido siempre es
lógicamente posible; y puede pretenderse que este hecho convierte en dudoso -por lo menos-
el valor lógico del criterio de demarcación que he propuesto. Me veo obligado a admitir que
esta crítica es justa; pero no necesito, por ello, retirar mi propuesta de adoptar la falsabilidad
como criterio de demarcación. Pues voy a proponer que se caracterice el método empírico de
tal forma que excluya precisamente aquellas vías de eludir la falsación que mi imaginario crítico
señala insistentemente, con toda razón, como lógicamente posibles. De acuerdo con mi
propuesta, lo que caracteriza al método empírico es su manera de exponer a falsación el
sistema que ha de contrastarse: justamente de todos los modos imaginables. Su meta no es
salvarles la vida a los sistemas insostenibles, sino, por el contrario, elegir el que
comparativamente sea más apto, sometiendo a todos a la más áspera lucha por la
supervivencia. El criterio de demarcación propuesto nos conduce a una solución del problema
de Hume de la inducción, o sea, el problema de la validez de las leyes naturales. Su raíz se
encuentra en la aparente contradicción existente entre lo que podría llamarse <<la tesis
fundamental del empirismo>> -la de que sólo la experiencia puede decidir acerca de la verdad
o la falsedad de los enunciados científicos- y la inadmisibilidad de los razonamientos
inductivos, de la que se dio cuenta Hume. Esta contradicción surge únicamente si se supone
que todos los enunciados científicos empíricos han de ser «decidibles de modo concluyente»,
esto es, que, en principio, tanto su verificación como su falsación han de ser posibles. Si
renunciamos a esta exigencia y admitimos como enunciados empíricos también los que sean
decidibles en un solo sentido -decidibles unilateralmente, o, más en particular, falsables- y
puedan ser contrastados mediante ensayos sistemáticos de falsación, desaparece la
contradicción: el método de falsación no presupone la inferencia inductiva, sino únicamente las
transformaciones tautológicas de la lógica deductiva, cuya validez no se pone en tela de juicio.
Para que la falsabilidad pueda aplicarse de algún modo como criterio de demarcación deben
tenerse a mano enunciados singulares que puedan servir como premisas en las inferencias
falsadoras. Por tanto, nuestro criterio aparece como algo que solamente desplaza el problema
-que nos retrotrae de la cuestión del carácter empírico de las teorías a la del carácter empírico
de los enunciados singulares. Pero incluso en este caso se ha conseguido algo. Pues en la
práctica de la investigación científica la demarcación presenta, a veces, una urgencia inmediata
en lo que se refiere a los sistemas teóricos, mientras que rara vez se suscitan dudas acerca de la
condición empírica de los enunciados singulares. Es cierto que se tienen errores de
observación, y que dan origen a enunciados singulares falsos, pero un científico casi nunca se
encuentra en el trance de describir un enunciado singular como no empírico o metafísico. Por
tanto, los problemas de la base empírica -esto es, los concernientes al carácter empírico de
enunciados singulares y a su contrastación- desempeñan un papel en la lógica de la ciencia algo
diferente del representado por la mayoría de los demás problemas de que habremos de
ocuparnos. Pues gran parte de éstos se encuentran en relación estrecha con la práctica de la
investigación, mientras que el problema de la base empírica pertenece casi exclusivamente a la
teoría del conocimiento. Me ocuparé de ellos, sin embargo, ya que dan lugar a muchos puntos
obscuros: lo cual ocurre, especialmente, con las relaciones entre experiencias perceptivas y
enunciados básicos. (Llamo <<enunciado básico>> o <<proposición básica>> a un enunciado
que puede servir de premisa en una falsación empírica: brevemente dicho, a la enunciación de
un hecho singular.)
Se ha considerado con frecuencia que las experiencias perceptivas proporcionan algo así como
una justificación de los enunciados básicos: se ha mantenido que estos enunciados están
<<basados sobre>> tales experiencias, que mediante éstas se <<manifiesta por inspección>> la
verdad de aquéllos, o que dicha verdad se hace <<patente>> en las experiencias mencionadas,
etc. Todas estas expresiones muestran una tendencia perfectamente razonable a subrayar la
estrecha conexión existente entre los enunciados básicos y nuestras experiencias perceptivas.
Con todo, se tenía la impresión (exacta) de que los enunciados sólo pueden justificarse
lógicamente mediante otros enunciados: por ello, la conexión entre las percepciones y los
enunciados permanecía obscura, y era descrita por expresiones de análoga obscuridad que no
aclaraban nada, sino que resbalaban sobre las dificultades o, en el mejor de los casos, las
señalaban fantasmalmente con metáforas. También en este caso puede encontrarse una
solución, según creo, si separamos claramente los aspectos psicológicos del problema de los
lógicos y metodológicos. Hemos de distinguir, por una parte, nuestras experiencias subjetivas o
nuestros sentimientos de convicción, que no pueden jamás justificar enunciado alguno (aun
cuando pueden ser objeto de investigación psicológica), y, por otra, las relaciones lógicas
objetivas existentes entre los diversos sistemas de enunciados científicos y en el interior de
cada uno de ellos.
El empleo que hago de los términos <<objetivo>> y <<subjetivo>> no es muy distinto del
kantiano. Kant utiliza la palabra <<objetivo>> para indicar que el conocimiento científico ha de
ser justificable, independientemente de los caprichos de nadie: una justificación es
<<objetiva>> si en principio puede ser contrastada y comprendida por cualquier persona. <<Si
algo es válido -escribe- para quienquiera que esté en uso de razón, entonces su fundamento es
objetivo y suficiente>>.
Ahora bien; yo mantengo que las teorías científicas no son nunca enteramente justificables o
verificables, pero que son, no obstante, contrastables. Diré, por tanto, que la objetividad de los
enunciados científicos descansa en el hecho de que pueden contrastarse intersubjetivamente.
Kant aplica la palabra <<subjetivo>> a nuestros sentimientos de convicción (de mayor o menor
grado). El examen de cómo aparecen éstos es asunto de la psicología: pueden surgir, por
ejemplo, <<según leyes de la asociación>>; también pueden servir razones objetivas como
<<causas subjetivas del juzgar>>, desde el momento en que reflexionamos sobre ellas y nos
convencemos de su congruencia.
Quizá fue Kant el primero en darse cuenta de que la objetividad de los enunciados se
encuentra en estrecha conexión con la construcción de teorías -es decir, con el empleo de
hipótesis y de enunciados universales-. Sólo cuando se da la recurrencia de ciertos
acontecimientos de acuerdo con reglas o regularidades -y así sucede con los experimentos
repetibles- pueden ser contrastadas nuestras observaciones por cualquiera (en principio). Ni
siquiera tomamos muy en serio nuestras observaciones, ni las aceptamos como científicas,
hasta que las hemos repetido y contrastado. Sólo merced a tales repeticiones podemos
convencernos de que no nos encontramos con una mera <<coincidencia>> aislada, sino con
acontecimientos que, debido a su regularidad y reproductibilidad, son, en principio,
contrastables intersubjetivamente.
Todo físico experimental conoce esos sorprendentes e inexplicables <<efectos>> aparentes,
que tal vez pueden, incluso, ser reproducidos en su laboratorio durante cierto tiempo, pero
que finalmente desaparecen sin dejar rastro. Por supuesto, ningún físico diría en tales casos
que había hecho un descubrimiento científico (aun cuando puede intentar una nueva puesta a
punto de sus experimentos con objeto de hacer reproducible el efecto). En realidad, puede
definirse el efecto físico científicamente significativo como aquél que cualquiera puede
reproducir con regularidad sin más que llevar a cabo el experimento apropiado del modo
prescrito. Ningún físico serio osaría publicar, en concepto de descubrimiento científico, ningún
<<efecto oculto>> (como propongo llamarlo) de esta índole, es decir, para cuya reproducción
no pudiese dar instrucciones. Semejante «descubrimiento» se rechazaría más que de prisa por
quimérico, simplemente porque las tentativas de contrastarlo llevarían a resultados negativos.
(De ello se
sigue que cualquier controversia sobre la cuestión de si ocurren en absoluto acontecimientos
que en principio sean irrepetibles y únicos no puede decidirse por la ciencia: se trataría de una
controversia metafísica.)
Mi tesis de que una experiencia subjetiva, o un sentimiento de convicción, nunca pueden
justificar un enunciado científico; y de que semejantes experiencias y convicciones no pueden
desempeñar en la ciencia otro papel que el de objeto de una indagación empírica (psicológica).
Por intenso que sea un sentimiento de convicción nunca podrá justificar un enunciado. Por
tanto, puedo estar absolutamente convencido de la verdad de un enunciado, seguro de la
evidencia de mis percepciones, abrumado por la intensidad de mi experiencia: puede
parecerme absurda toda duda. Pero, ¿aporta, acaso, todo ello la más leve razón a la ciencia
para aceptar mis enunciados? ¿Puede justificarse ningún enunciado por el hecho de que K. R. P.
esté absolutamente convencido de su verdad? La única respuesta posible es que no, y
cualquiera otra sería incompatible con la idea de la objetividad científica. Incluso el hecho -para
mí tan firmemente establecido- de que estoy experimentando un sentimiento de convicción,
no puede aparecer en el campo de la ciencia objetiva más que en forma de hipótesis
psicológica; la cual, naturalmente, pide un contraste o comprobación intersubjetivo: a partir de
la conjetura de que yo tengo este sentimiento de convicción, el psicólogo puede deducir,
valiéndose de teorías psicológicas y de otra índole, ciertas predicciones acerca de mi conducta
-que pueden confirmarse o refutarse mediante contrastaciones experimentales-. Pero, desde el
punto de vista epistemológico, carece enteramente de importancia que mi sentimiento de
convicción haya sido fuerte o débil, que haya procedido de una impresión poderosa o incluso
irresistible de certeza indudable (o <<evidencia>>), o simplemente de una insegura sospecha:
nada de todo esto desempeña el menor papel en la cuestión de cómo pueden justificarse los
enunciados científicos. Al exigir que haya objetividad, tanto en los enunciados básicos como en
cualesquiera otros enunciados científicos, nos privamos de todos los medios lógicos por cuyo
medio pudiéramos haber esperado reducir la verdad de los enunciados científicos a nuestras
experiencias. Aún más: nos vedamos todo conceder un rango privilegiado a los enunciados que
formulan experiencias, como son los que describen nuestras percepciones (y a los que, a veces,
se llama <<cláusulas protocolarias>>): pueden aparecer en la ciencia únicamente como
enunciados psicológicos, lo cual quiere decir como hipótesis de un tipo cuyo nivel de
contrastación intersubjetiva no es, ciertamente, muy elevado (teniendo en cuenta el estado
actual de la psicología).
Cualquiera que sea la respuesta que demos finalmente a la cuestión de la base empírica, una
cosa tiene que quedar clara: si persistimos en pedir que los enunciados científicos sean
objetivos, entonces aquéllos que pertenecen a la base empírica de la ciencia tienen que ser
también objetivos, es decir, contrastables intersubjetivamente. Pero la contrastabilidad
intersubjetiva implica siempre que, a partir de los enunciados que se han de someter a
contraste, puedan deducirse otros también contrastables. Por tanto, si los enunciados básicos
han de ser contrastables intersubjetivamente a su vez, no puede haber enunciados últimos en
la ciencia: no pueden existir en la ciencia enunciados últimos que no puedan ser contrastados,
y, en consecuencia, ninguno que no pueda -en principio- ser refutado al falsar algunas de las
conclusiones que sea posible deducir de él.
De este modo llegamos a la siguiente tesis. Los sistemas teóricos se contrastan deduciendo de
ellos enunciados de un nivel de universalidad más bajo; éstos, puesto que han de ser
contrastables intersubjetivamente, tienen que poderse contrastar de manera análoga -y así ad
infinitum. Podría pensarse que esta tesis lleva a una regresión infinita, y que, por tanto, es
insostenible. Al criticar la inducción, opuse la objeción de que llevaría a un regreso infinito; y
puede muy bien parecer ahora que la misma objeción exactamente puede invocarse contra el
procedimiento de contrastación deductiva que defiendo a mi vez. Sin embargo, no ocurre así.
El método deductivo de contrastar no puede estatuir ni justificar los enunciados que se
contrastan, ni se pretende que lo haga; de modo que no hay peligro de una regresión infinita.
Pero ha de admitirse que la situación sobre la que acabo de llamar la atención -la
contrastabilidad ad infinitum y la ausencia de enunciados últimos que no necesitasen ser
contrastados- crea, ciertamente, un problema. Pues es evidente que, de hecho, las
contrastaciones no pueden prolongarse ad infinitum: más tarde o más temprano hemos de
detenernos. Sin discutir ahora el problema en detalle, quiero únicamente señalar que la
circunstancia de que las contrastaciones no puedan continuar indefinidamente no choca con
mi petición de que todo enunciado científico sea contrastable. Pues no pido que sea preciso
haber contrastado realmente todo enunciado científico antes de aceptarlo: sólo requiero que
cada uno de estos enunciados sea susceptible de contrastación; dicho de otro modo: me niego
a admitir la tesis de que en la ciencia existan enunciados cuya verdad hayamos de aceptar
resignadamente, por la simple razón de no parecer posible -por razones lógicas- someterlos a
contraste.
La falsabilidad
Reglas metodológicas
Falsabilidad y falsación
Acontecimientos y eventos
El requisito de falsabilidad, que al principio era un poco vago, ha quedado dividido en dos
partes: la primera -el postulado metodológico- difícilmente puede hacerse enteramente
precisa; la segunda -el criterio lógico- resulta completamente definida en cuanto se aclara a
qué enunciados hemos de llamar <<básicos>>. He presentado este criterio lógico, hasta ahora,
de una manera algo formal: como una relación lógica existente entre enunciados, es decir, los
de la teoría y los enunciados básicos. Quizá aclare estas cuestiones y las haga más intuitivas si
expreso ahora mi criterio en un lenguaje más <<realista>>. En esta manera <<realista>> de
expresarnos podemos decir que un enunciado singular (un enunciado básico) describe un
acontecimiento. En lugar de hablar de enunciados básicos excluidos o prohibidos por una
teoría, podemos decir que ésta excluye ciertos acontecimientos posibles, y que quedará falsada
si tales acontecimientos posibles acontecen realmente.
Se ha dicho a veces que sería menester que expresiones tales como <<acontecimiento>> o
<<evento>> quedasen totalmente eliminadas de los debates epistemológicos, y que no
deberíamos hablar de <<acontecimientos>>, de <<no acontecimientos>> o de <<acontecer>>
unos <<eventos>>, sino -en lugar de todo ello- de la verdad o falsedad de enunciados. Pero, a
pesar de ello, prefiero conservar la expresión <<acontecimiento>>; no ofrece dificultad definir
su empleo de modo que no se le puede objetar nada: pues podemos usarla de modo que
siempre que hablemos de un acontecimiento pudiésemos -en lugar suyo- hablar de algunos de
los enunciados singulares que corresponden a él. Cuando definimos <<acontecimiento>>
hemos de recordar el hecho de que sería enteramente natural decir que dos enunciados
singulares que son lógicamente equivalentes (es decir, mutuamente deductibles) describen el
mismo acontecimiento. Lo cual sugiere la siguiente definición: Sea pk un enunciado singular (el
subíndice <<k>> se refiere a los nombres o coordenadas individuales que aparecen en pk);
llamaremos acontecimiento Pk a la clase de todos los enunciados que son equivalentes a pk.
Así, diremos que es un acontecimiento, por ejemplo, que ahora truena aquí; y podemos
considerar a este acontecimiento como la clase de los enunciados <<ahora truena aquí>>,
<<truena en el 13 distrito de Viena el 10 de junio de 1933 a las 3,15 de la tarde>>, y todos los
demás enunciados equivalentes a éstos. Puede considerarse que la formulación realista <<el
enunciado pk representa el acontecimiento Pk>> quiere decir lo mismo que el enunciado algo
trivial <<el enunciado pk es un elemento de la clase Pk de todos los enunciados equivalentes a
él>>: análogamente, consideramos que el enunciado <<el acontecimiento Pk ha acontecido>>
(o <<está aconteciendo>>) tiene el mismo significado que «pk y todos los enunciados
equivalentes a él son verdaderos>>. El propósito de estas reglas de traducción no es el de
afirmar que todo el que emplea la palabra <<acontecimiento>> en el modo de hablar realista
está pensando en una clase de enunciados, sino simplemente el de dar una interpretación de
tal modo de hablar que haga inteligible lo que se quiere decir, por ejemplo, cuando se
menciona que el acontecimiento Pk contradice a una teoría t. Semejante enunciado implicará
ahora, sencillamente, que todo enunciado equivalente a pk contradice a la teoría t, y es -por
tanto- un posible falsador de ella. Introducimos ahora otro término, el de <<evento>>, para
denotar lo que haya de típico o universal en un acontecimiento, o sea, lo que de un
acontecimiento pueda describirse mediante nombres universales. (Así, pues, no entenderemos
que evento sea un acontecimiento complejo, o quizá prolongado, pese a lo que pueda sugerir
el uso ordinario de esta palabra). Definimos: Sean Pk, P1, ... elementos de una clase de
acontecimientos que difieran únicamente con respecto a los individuos (las posiciones o
regiones espacio-temporales) afectados: llamamos a esta clase <<el evento (P)>>. De acuerdo
con esta definición, diremos, por ejemplo, del enunciado <<acaba de volcarse aquí un vaso de
agua>>, que la clase de los enunciados que son equivalentes a él forma un elemento del
evento <<volcar un vaso de agua>>.
En el modo realista de hablar puede decirse del enunciado singular pk -que representa un
acontecimiento Pk- que tal enunciado afirma que el evento (P) acontece en la posición espacio-
temporal k. Y admitimos que esto quiere decir lo mismo que: <<la clase Pk de los enunciados
singulares equivalentes a pk es un elemento del evento (P)>>.
Aplicamos ahora esta terminología a nuestro problema. Podemos decir de una teoría falsable
que excluye o prohíbe no solamente un acontecimiento, sino, por lo menos, un evento. De este
modo, la clase de los enunciados básicos prohibidos (es decir, de los posibles falsadores de la
teoría) contendrá siempre -si no es una clase vacía- un número ilimitado de enunciados
básicos: pues una teoría no se refiere a individuos como tales. Podemos designar los
enunciados básicos singulares que pertenecen a un evento con la palabra <<homotípicos>>,
con objeto de señalar la analogía entre enunciados equivalentes que describen un
acontecimiento y enunciados homotípicos que describen un evento (típico). Entonces es
posible decir que toda clase no vacía de posibles falsadores de una teoría contiene, al menos,
una clase no vacía de enunciados básicos homotípicos.
Cada uno de los enunciados corresponderá un evento tal, que los distintos enunciados básicos
pertenecientes a él verificarán el enunciado puramente existencial; pero la clase de sus
posibles falsadores es una clase vacía, de modo que a partir de un enunciado existencial no se
sigue nada acerca de los mundos de experiencia posibles (pues no excluye o prohibe ningún
evento). El hecho de que, por el contrario, de todo enunciado básico se siga un enunciado
puramente existencial no puede emplearse como argumento para defender el carácter
empírico de este último: pues de todo enunciado básico se sigue también cualquier tautología
(ya que se sigue de un enunciado arbitrario). En este momento conviene quizá que diga unas
palabras sobre los enunciados contradictorios. Mientras que las tautologías, los enunciados
puramente existenciales y otros enunciados no falsables afirman, como si dijéramos,
demasiado poco acerca de la clase de los enunciados básicos posibles, los enunciados
contradictorios afirman demasiado. A partir de un enunciado contradictorio puede deducirse
válidamente cualquier enunciado; en consecuencia, la clase de sus posibles falsadores es
idéntica a la de todos los enunciados básicos posibles: cualquier enunciado sirve para falsarlo.
(Podría decirse tal vez que esta circunstancia hace visible una ventaja de nuestro método, es
decir, de que tengamos en cuenta los posibles falsadores en lugar de los posibles verificadores:
pues si pudiese verificarse un enunciado verificando sus consecuencias lógicas -o si meramente
se le hiciera probable de esta suerte-, sería de esperar que al aceptar un enunciado básico
cualquiera resultase confirmado, o verificado, o, al menos, probable, todo enunciado
contradictorio.)
Falsabilidad y coherencia
El requisito de la compatibilidad o coherencia desempeña un papel especial entre todos los
que han de satisfacer los sistemas teóricos, o los sistemas axiomáticos. Puede considerársele la
primera condición que ha de cumplir todo sistema teórico, ya sea empírico o no. Para hacer ver
la importancia fundamental de este requisito no basta mencionar el hecho evidente de que hay
que rechazar cualquier sistema que sea contradictorio porque será <<falso>>: pues a menudo
trabajamos con enunciados que, no obstante ser falsos en realidad, nos llevan a resultados
apropiados para ciertos propósitos. Caeremos en la cuenta de la importancia que tiene el
requisito de coherencia si nos percatamos de que los sistemas contradictorios no nos
proporcionan ninguna información, pues podemos deducir de ellos la conclusión que nos
plazca; de modo que no se hace discriminación alguna en los enunciados -calificándolos, bien
de incompatibles, bien de deductibles-, ya que todos son deductibles. En cambio, un sistema
coherente divide el conjunto de todos los enunciados posibles en dos: los que le contradicen y
los que son compatibles con él (entre estos últimos se encuentran las conclusiones que se
pueden deducir del sistema). Es ésta la razón por la que la coherencia constituye el requisito
más general que han de cumplir los sistemas, ya sean empíricos o no lo sean, para que puedan
tener alguna utilidad. Además de ser compatible, todo sistema empírico debe satisfacer otra
condición: tiene que ser falsable. Estas dos restricciones impuestas a los sistemas producen
efectos en gran medida análogos: los enunciados que no satisfacen la condición de coherencia
son incapaces de efectuar discriminación alguna entre dos enunciados cualesquiera (de la
totalidad de todos los enunciados posibles); y los que no satisfacen la condición de falsabilidad
no son capaces de efectuar discriminación entre dos enunciados cualesquiera que pertenezcan
a la totalidad de todos los enunciados empíricos básicos posibles.
Muchos aceptan como fuera de toda duda la doctrina de que las ciencias empíricas pueden
reducirse a percepciones sensoriales, y, por tanto, a nuestras experiencias. A pesar de ello, la
suerte de esta doctrina está ligada a la de la lógica inductiva, y en la presente obra la
rechazamos juntamente con ésta. No pretendo negar que hay algo de verdad en la opinión de
que las matemáticas y la lógica se basan en el pensamiento, mientras que las ciencias de
hechos lo hacen en las percepciones de los sentidos; pero este grano de verdad apenas pesa en
el problema epistemológico. Mas, por otra parte, difícilmente se encontrará un problema de la
epistemología que haya sufrido más a consecuencia de la confusión de la psicología con la
lógica que el que nos ocupa ahora: el de la base de los enunciados de experiencia.
Pocos pensadores se han preocupado tan profundamente por el problema de la base
experimental como Fries. Este decía que, si es que no hemos de aceptar dogmáticamente los
enunciados de la ciencia, tenemos que ser capaces de justificarlos; si exigimos que la
justificación se realice por una argumentación razonada, en el sentido lógico de esta expresión,
vamos a parar a la tesis de que los enunciados sólo pueden justificarse por medio de
enunciados; por tanto, la petición de que todos los enunciados estén justificados lógicamente
nos lleva forzosamente a una regresión infinita. Ahora bien; si queremos evitar tanto el peligro
de dogmatismo como el de una regresión infinita, parece que sólo podemos recurrir al
psicologismo; esto es, a la doctrina de que los enunciados no solamente pueden justificarse por
medio de enunciados, sino también por la experiencia perceptiva. Al encontrarse frente a este
trilema -o dogmatismo o regresión infinita, o psicologismo-, Fries (y con él casi todos los
epistemólogos que querían dar razón de nuestro conocimiento empírico) optaba por el
psicologismo: según su doctrina, en la experiencia sensorial tenemos un <<conocimiento
inmediato>> con el cual podemos justificar nuestro <<conocimiento mediato>> (es decir, el
conocimiento expresado en el simbolismo de un lenguaje); y este último incluye, desde luego,
los enunciados de la ciencia.
Ordinariamente no se lleva tan lejos el análisis de este problema. En las epistemologías del
sensualismo y del positivismo se supone, sin más, que los enunciados científicos empíricos
<<hablan de nuestras experiencias>>: pues, ¿cómo podríamos haber llegado a ningún
conocimiento de hechos si no fuera a través de la percepción sensorial?; la mera lucubración
no puede hacer que nadie aumente una jota su conocimiento del mundo de los hechos, y, por
tanto, la experiencia sensorial ha de ser la única <<fuente de conocimiento>> de todas las
ciencias empíricas. Así pues, todo lo que sabemos acerca del mundo de los hechos tiene que
poderse expresar en forma de enunciados acerca de nuestras experiencias; sólo consultando
nuestra experiencia sensorial puede saberse si esta mesa es roja o azul. Por el sentimiento
inmediato de convicción que lleva consigo podemos distinguir el enunciado verdadero -aquél
que está de acuerdo con la experiencia- del falso -que no lo está-. La ciencia no es más que un
intento de clasificar y describir este conocimiento perceptivo, estas experiencias inmediatas de
cuya verdad no podemos dudar: es la presentación sistemática de nuestras convicciones
inmediatas. En mi opinión, esta doctrina se va a pique con los problemas de la inducción y de
los universales: pues no es posible proponer un enunciado científico que no trascienda lo que
podemos saber con certeza <<basándonos en nuestra experiencia inmediata>> (hecho al que
nos referiremos con la expresión <<la trascendencia inherente a cualquier descripción>> -es
decir, a cualesquiera enunciados descriptivos-): todo enunciado descriptivo emplea nombres (o
símbolos, o ideas) universales, y tiene el carácter de una teoría, de una hipótesis. No es posible
verificar el enunciado <<aquí hay un vaso de agua>> por ninguna experiencia con carácter de
observación, por la mera razón de que los universales que aparecen en aquél no pueden ser
coordinados a ninguna experiencia sensorial concreta (toda <<experiencia inmediata>> está
<<dada inmediatamente>> una sola vez, es única); con la palabra <<vaso>>, por ejemplo,
denotamos los cuerpos físicos que presentan cierto comportamiento legal, y lo mismo ocurre
con la palabra <<agua>>. Los universales no pueden ser reducidos a clases de experiencias, no
pueden ser constituidos.
La tesis que yo llamo <<psicologismo>> subyace -según me parece- a cierta moderna teoría de
la base empírica, aun cuando los defensores de esta teoría no hablan de experiencias ni de
percepciones, sino de <<cláusulas>> -cláusulas que representan experiencias, y a las que
Neurath y Carnap llaman cláusulas protocolarias.
Reininger había mantenido ya una teoría parecida. Su punto de partida lo constituía la
pregunta: ¿en qué reside la correspondencia o acuerdo entre el enunciado de un hecho y la
situación descrita por él?; y llegó a la conclusión de que los enunciados solamente pueden
compararse con enunciados. Según esta tesis, la correspondencia existente entre un enunciado
y un hecho no es más que una correspondencia lógica entre enunciados correspondientes a
niveles de universalidad diferentes: es <<... la correspondencia entre enunciados de elevado
nivel y otros de análogo contenido, y, finalmente, con enunciados que registran experiencias>>
(Reininger llama, a veces, a estos últimos, <<enunciados elementales>>).
Carnap parte de una cuestión algo diferente: su tesis es que todas las investigaciones filosóficas
hablan <<de las formas de hablar>>. La lógica de la ciencia ha de investigar <<las formas del
lenguaje científico>>: no habla de <<objetos>> (físicos), sino de palabras; no de hechos, sino de
cláusulas. Con lo cual Carnap contrapone el <<modo formalizado (correcto) de hablar>> al
modo ordinario, al que llama <<modo material de hablar>>; si se quiere evitar toda confusión
debe emplearse este último solamente en los casos en que sea posible traducirlo al modo
formalizado. Ahora bien; este modo de ver las cosas -al cual puedo avenirme- lleva a Carnap (y,
asimismo, a Reininger) a afirmar que en la lógica de la ciencia no debemos decir que las
cláusulas se someten a contraste comparándolas con las situaciones o con las experiencias:
sólo nos cabe decir que pueden contrastarse comparándolas con otras cláusulas. Con todo, en
realidad, Carnap conserva las ideas fundamentales de la manera psicologista de abordar este
problema: lo único que hace es traducirlas al <<modo formalizado de hablar>>. Dice que las
cláusulas de la ciencia se contrastan <<valiéndose de cláusulas protocolarias>>; pero como
caracteriza a éstas diciendo que son enunciados o cláusulas <<que no necesitan confirmación,
sino que sirven de base para todos los demás enunciados de la ciencia>>, esto equivale a decir
-en el modo ordinario, <<material>>, de hablar- que las cláusulas protocolarias se refieren a lo
<<dado>>, a los <<datos sensoriales>>: describen (según Carnap mismo lo expresa) <<los
contenidos de la experiencia inmediata, o fenómenos; y, por tanto, los hechos cognoscibles
más simples>>. Lo cual hace ver con suficiente claridad que la teoría de las cláusulas
protocolarias no es sino psicologismo traducido al modo formalizado de hablar. Lo mismo es
aplicable, en gran medida, a la tesis de Neurath; éste pide que en toda cláusula protocolaria
aparezca, juntamente con las palabras <<percibe>>, <<ve>> y otras análogas, el nombre del
autor de aquélla: pues, como indica su nombre, las cláusulas protocolarias deberían ser
registros o protocolos de observaciones inmediatas o percepciones. Del mismo modo que
Reininger, Neurath sostiene que los enunciados de contenido perceptivo que registran
experiencias -esto es, las <<cláusulas protocolarias>>- no son irrevocables, sino que, en
ocasiones, pueden ser desechadas: se opone
a la opinión de Carnap (que luego este mismo ha modificado) de que las cláusulas
protocolarias
tengan carácter de últimas y no necesiten confirmación. Pero mientras Reininger expone un
método para contrastar sus enunciados <<elementales>>, en caso de duda, por medio de otros
enunciados (método que consiste en deducir y en contrastar conclusiones), Neurath no obra de
este modo: hace notar solamente que podemos, bien <<borrar>> una cláusula protocolaria
que contradiga a un sistema, <<... bien aceptarla, y modificar el sistema de tal manera que, con
la cláusula añadida, continúe siendo coherente>>. La tesis de Neurath según la cual las
cláusulas protocolarias no son inviolables representa, en mi opinión, un notable adelanto. Pero
si dejamos a un lado la sustitución de las percepciones por los enunciados de percepciones
(que es meramente una traducción de lo anterior en el modo formalizado de hablar), su único
progreso respecto de la teoría -debida a Fries- de la inmediatez del conocimiento perceptivo
consiste en la doctrina de que las cláusulas protocolarias pueden ser revisadas; se trata de un
paso en la dirección debida, pero no lleva a ninguna parte si no le sigue otro paso: pues
necesitamos un conjunto de reglas que limite la arbitrariedad en el <<borrar>> (o bien el
<<admitir>>) cláusulas protocolarias. Neurath omite toda regla en este sentido, y con ello, sin
pensarlo, echa por la horda el empirismo: pues sin tales reglas ya no es posible discriminar
entre los enunciados empíricos y cualesquiera otros. Todo sistema se convierte en defendible si
está permitido (y, según la opinión de Neurath, a todo el mundo le está permitido) <<borrar>>
simplemente una cláusula protocolaria que cause incomodidades: de esta forma no sólo podría
rescatarse cualquier sistema, como ocurre en el convencionalismo, sino que, disponiendo de
una buena reserva de cláusulas protocolarias, podría incluso confirmársele con el testimonio
de testigos que certificaran, o protocolaran, lo que habían visto y oído. Neurath evita una
forma de dogmatismo, pero prepara el camino por el que cualquier sistema arbitrario puede
erigirse en <<ciencia empírica>>. Por tanto, no es fácil ver el papel que desempeñarían las
cláusulas protocolarias en la construcción de Neurath. Según la tesis antigua de Carnap, el
sistema de cláusulas protocolarias era la piedra de toque con la cual había que juzgar toda
aserción de la ciencia empírica: y, por ello, tenían que ser <<irrefutables>>, ya que solamente
ellas podían derogar cláusulas (que no fuesen, a su vez, cláusulas protocolarías, naturalmente).
Pero si se las quita esta función, si ellas mismas son susceptibles de derogación por medio de
teorías, ¿para qué sirven? Puesto que Neurath no trata de resolver el problema de la
demarcación, parece que su idea de las cláusulas protocolarias no es más que una reliquia, un
recuerdo que sobrevive de la opinión tradicional de que la ciencia empírica comienza a partir
de la percepción.
Propongo una perspectiva de la ciencia que es ligeramente diferente de la propugnada por las
diversas escuelas psicologistas: querría distinguir netamente entre ciencia objetiva, por una
parte, y <<nuestro conocimiento>>, por otra.
Estoy dispuesto a admitir que solamente la observación puede proporcionarnos un
<<conocimiento acerca de hechos>>, y que (como dice Hahn) <<solamente nos percatamos de
los hechos por la observación>>; pero este percatarnos, este conocimiento nuestro, no justifica
o fundamenta la verdad de ningún enunciado. Por tanto, no creo que la cuestión que la
epistemología haya de plantear sea <<... ¿en qué se apoya nuestro conocimiento?... o -con más
exactitud-, si he tenido la experiencia S, ¿cómo puedo justificar mi descripción de ella y
defenderla frente a las dudas?>>. Estas preguntas no serán pertinentes, incluso si remplazamos
el término <<experiencia>> por el de <<cláusula protocolaria>>: en mi opinión, lo que la
epistemología ha de preguntar más bien es: ¿cómo contrastamos los enunciados científicos por
medio de sus consecuencias deductivas? (Actualmente formularía esta pregunta del siguiente
modo: ¿Cómo criticamos del mejor modo posible nuestras teorías (o nuestras hipótesis, o
conjeturas), en lugar de defenderlas contra las dudas? Siempre he pensado que contrastar era
un modo de criticar); y, ¿qué tipo de consecuencias podemos escoger para este propósito si es
que, a su vez, tienen que ser contrastables intersubjetivamente?
Actualmente está muy generalizada la aceptación de esta forma de consideración objetiva, no
psicológica, pero en lo que se refiere a enunciados lógicos o tautológicos. Mas no hace mucho
tiempo que se mantenía que la lógica era una ciencia que se ocupaba de los procesos mentales
y de sus leyes (las leyes de nuestro pensamiento); desde este punto de vista no cabía encontrar
otra justificación a la lógica que el supuesto hecho de que simplemente no podíamos pensar de
otro modo: parecía que una inferencia lógica quedaba justificada porque se la experimentaba
como una necesidad del pensamiento, como un sentimiento de compulsión a pensar de un
modo determinado. En el campo de la lógica, esta clase de psicologismo pertenece ya, tal vez,
al pasado; a nadie se le ocurriría justificar la validez de una inferencia lógica -o defenderla
frente a las dudas- escribiendo al margen la siguiente cláusula protocolaria: <<Protocolo: al
revisar hoy esta cadena de inferencias he experimentado un agudísimo sentimiento de
convicción>>.
La situación es muy diferente cuando nos volvemos a los enunciados empíricos de la ciencia:
aquí, todo el mundo cree que están fundamentados en experiencias del tipo de las
percepciones (en el modo formalizado de hablar, en cláusulas protocolarias). Casi todos
considerarían como un caso de psicologismo el intento de basar los enunciados lógicos en
cláusulas protocolarias; mas es curioso que, en lo que se refiere a los enunciados empíricos,
nos encontramos hoy con idéntico tipo de pretensión con el nombre de <<fisicismo>>. Ahora
bien; ya se trate de enunciados de la lógica o de la ciencia empírica, pienso que la situación es
la misma: nuestro conocimiento, que cabe describir vagamente como un sistema de
disposiciones, y que tal vez sea materia de estudio de la psicología, puede estar unido a
sentimientos de creencia o de convicción: quizá en un caso al sentimiento de estar compelido a
pensar de una manera determinada, y en el otro al de <<certidumbre perceptiva>>. Pero todo
esto interesa solamente al psicólogo: no roza siquiera los únicos problemas que interesan al
epistemólogo, como son los de las conexiones lógicas existentes entre los enunciados
científicos.
(Está muy extendida la creencia de que el enunciado <<veo que esta mesa es blanca>> posee
una ventaja radical -desde el punto de vista epistemológico- sobre este otro: <<esta mesa es
blanca>>. Pero con la mira puesta en la evaluación de sus posibles contrastaciones objetivas, el
primer enunciado, que habla de mí, no parece más seguro que el segundo, que habla de la
mesa que está aquí).
Existe sólo un camino para asegurarse de la validez de una cadena de razonamientos lógicos, y
es el de ponerla en la forma más fácil de contrastar: la descomponemos en muchos pasos
pequeños y sucesivos, cada uno de los cuales sea fácilmente comprobable por quien quiera
esté impuesto en la técnica lógica o matemática de transformar cláusulas; si después de hecho
esto alguien sigue planteando dudas, lo único que podemos hacer es pedirle que señale un
error en algún paso de la demostración o que vuelva a estudiarla de nuevo. En el caso de las
ciencias empíricas la situación es poco más o menos la misma. Cualquier enunciado científico
empírico puede ser presentado (especificando los dispositivos experimentales, etc.) de modo
que quienquiera esté impuesto en la técnica pertinente pueda contrastarlo; si como resultado
de la contrastación rechaza el enunciado, no quedaremos satisfechos en caso de que nos hable
de sus sentimientos de duda, o de los de convicción que alberga con respecto a sus
percepciones: lo que tiene que hacer es formular una aserción que contradiga la nuestra, y
darnos instrucciones para contrastarla; dado que no sea capaz de hacer tal cosa, lo único que
podemos hacer es pedirle que vuelva a considerar -quizá con más atención- nuestro
experimento, y que piense de nuevo.
Una afirmación que no sea contrastable, debido a su forma lógica, sólo puede actuar en la
ciencia, en el mejor de los casos, como estímulo: sugiriendo un problema.
A la ciencia puede considerársela desde diversos puntos de vista, no solamente desde el de la
epistemología: así, la podemos mirar como un fenómeno biológico o sociológico; y, en este
caso, se la puede describir como una herramienta, un aparato tal vez comparable a los de
nuestra maquinaria industrial. Cabe fijarse en ella como medio de producción: como la última
palabra en la <<producción en rodeo>>; incluso desde este punto de vista, la ciencia no se
encuentra más ligada a <<muestra experiencia>> que otro aparato o medio de producción
cualquiera. Hasta podemos apreciarla como algo que sirve para satisfacer nuestras necesidades
intelectuales: tampoco de esta forma difiere nada -en principio- su conexión con nuestra
experiencia de la que tiene otra estructura objetiva cualquiera. Sin duda, no es inexacto decir
que la ciencia es <<un instrumento>> cuya finalidad es <<predecir experiencias futuras a partir
de otras inmediatas o dadas, e incluso gobernar aquéllas hasta donde sea posible>>. Pero no
creo que todo este hablar de experiencias contribuya a aclarar la situación: apenas está más
justificado, diríamos, que caracterizar la torre de un pozo petrolífero diciendo que su finalidad
consiste en proporcionarnos ciertas experiencias: no petróleo, sino la vista y el olor del
petróleo; no dinero, sino más bien la sensación de tener dinero.
Los enunciados básicos, en la teoría epistemológica que yo defiendo, son necesarios para
decidir si a una teoría ha de llamársele falsable, esto es, empírica, así como para corroborar las
hipótesis falsadoras y, por tanto, para falsar teorías. Por consiguiente, los enunciados básicos
tienen que satisfacer las siguientes condiciones: a) no se podrá deducir enunciado básico
alguno a partir de un enunciado universal no acompañado de condiciones iniciales (De ningún
enunciado total puro -digamos, <<todos los cisnes son blancos>>- se sigue nada observable.
Esto es obvio si consideramos el hecho de que <<todos los cisnes son blancos>> y <<todos los
cisnes son negros>> no se contradicen, sino que meramente implican que no hay cisnes: lo
cual, sin duda, no es un enunciado de observación, ni siquiera uno que pueda ser
<<verificado>>. (Un enunciado unilateralmente falsable como <<todos los cisnes son blancos>>
tiene la misma forma lógica que <<no hay cisnes>>, ya que es equivalente a <<no hay cisnes no
blancos>>). Ahora bien; si esto se admite se verá inmediatamente que los enunciados
singulares que pueden deducirse de enunciados puramente universales no pueden ser
enunciados básicos. Me refiero a los que tienen la forma <<si hay un cisne en el lugar k,
entonces hay un cisne blanco en el lugar k>> (o bien, <<en k, o bien no hay ningún cisne o hay
un cisne blanco>>): nos damos cuenta inmediatamente de que estos <<enunciados
ejemplificadores>> no son enunciados básicos, ya que no pueden desempeñar el papel de
enunciados de contraste (o sea, de posibles falsadores), que es justamente el que han de
desempeñar los enunciados básicos. Si aceptásemos los enunciados ejemplificadores como
enunciados de contraste, obtendríamos para toda teoría (y, por ello, para <<todos los cisnes
son blancos>> y para <<todos los cisnes son negros>>) un número aplastante de verificaciones
-en realidad, un número infinito si aceptamos el hecho de que la inmensa mayoría del mundo
está desprovista de cisnes. Puesto que los <<enunciados ejemplificadores>> son deductibles de
enunciados universales, sus negaciones tienen que ser posibles falsadores, y, por tanto, es
posible que sean enunciados básicos; y viceversa, los enunciados ejemplificadores tendrán,
pues, la forma de enunciados básicos negados. Es interesante advertir que los enunciados
básicos han de tener mayor contenido informativo que sus negaciones ejemplificadoras; lo cual
quiere decir que el contenido de los enunciados básicos excede de su probabilidad lógica); y b)
un enunciado universal y un enunciado básico han de poder contradecirse mutuamente. La
condición b) puede satisfacerse únicamente si es posible deducir la negación de un enunciado
básico de una teoría a la que éste contradiga; y a partir de esta condición y de la a) se sigue que
todo enunciado básico debe tener una forma lógica tal que su negación no pueda ser, a su vez,
un enunciado básico.
Nos hemos tropezado ya con enunciados cuya forma lógica es diferente de la que tienen sus
negaciones; son los enunciados universales y los existenciales: unos son negación de los otros,
y difieren en su forma lógica. Es posible construir enunciados singulares de modo parecido. Así,
cabe decir que el enunciado <<hay un cuervo en la región espacio-temporal k>> tiene diversa
forma lógica -y no sólo distinta forma lingüística- que este otro: <<no hay ningún cuervo en la
región espacio-temporal k>>. Podemos llamar <<enunciado existencial singular>>, o
<<enunciado de 'hay' singular>> a todo enunciado de la forma, <<hay tal y cual cosa en la
región k>>, o de la forma <<tal y cual evento acontece en la región k>>; y podríamos llamar
<<enunciado inexistencial singular>> o <<enunciado de 'no hay' singular>> a todo enunciado
que se obtenga al negar uno de aquéllos, es decir, a cualquiera de la forma <<no hay tal y cual
cosa en la región k>> o de la forma <<ningún evento de tal y cual tipo acontece en la región
k>>. Podemos establecer ahora la siguiente regla: los enunciados básicos tienen la forma de
enunciados existenciales singulares. Esto quiere decir que dichos enunciados satisfarán la
condición a), ya que no es posible deducir un enunciado existencial singular de uno
estrictamente universal, esto es, de un enunciado inexistencial estricto; también han de
satisfacer la condición b ), como puede advertirse teniendo en cuenta que, a partir de todo
enunciado existencial singular, se puede deducir otro puramente existencial sin más que omitir
la referencia a una región espacio-temporal individual, y que -como hemos visto- todo
enunciado puramente existencial es muy capaz de contradecir a una teoría.
Conviene observar que la conjunción de dos enunciados básicos, d y r, que no se contradigan
mutuamente, es, a su vez, un enunciado básico. A veces, podemos incluso obtener un
enunciado básico por adjunción de un enunciado de este tipo y otro que no lo sea: por
ejemplo, podemos formar la conjunción del enunciado básico r, <<hay una aguja indicadora en
el lugar k>>, con el enunciado inexistencial singular p, <<no hay ninguna aguja indicadora en
movimiento en el lugar k>>: pues es evidente que la conjunción r . ¬p (<<r y no p>>) de estos
dos enunciados equivale al enunciado existencial singular <<hay una aguja indicadora en
reposo en el lugar k>>. Como consecuencia, si se nos dan la teoría t y las condiciones iniciales r
-tales que de una y otras se deduzca la predicción p-, entonces el enunciado r . p será un
falsador de la teoría, y, por tanto, un enunciado básico. (Por otra parte, el enunciado
condicional <<r -> p>>, o sea, <<si r entonces p>>, carece del carácter de básico tanto como la
negación p, ya que es equivalente a la negación de un enunciado básico: a saber, a la negación
de r . p).
Estos son los requisitos formales de los enunciados básicos, y los satisfacen todos los
enunciados existenciales singulares. Además de ellos, todo enunciado básico tiene que cumplir
también un requisito material (un requisito referente al evento que -según nos dice el
enunciado básico- está ocurriendo en el lugar k): el evento ha de ser <<observable>>, es decir,
se requiere que los enunciados básicos sean contrastables intersubjetivamente por
<<observación>>; puesto que estos enunciados son singulares, esta condición sólo puede
referirse a observadores convenientemente situados en el espacio y el tiempo.
Sin duda, parecerá que al exigir la observabilidad he terminado por permitir que el
psicologismo se deslice suavemente en el interior de mi teoría. Pero no es así. Desde luego,
cabe interpretar el concepto de evento observable en sentido psicologista; pero yo lo estoy
empleando en un sentido tal que se le podría remplazar perfectamente por <<un evento que
concierne la posición y el movimiento de cuerpos físicos macroscópicos>>; o bien podemos
-con mayor precisión- establecer que todo enunciado básico, bien ha de ser un enunciado
acerca de posiciones relativas de cuerpos físicos, bien será equivalente a cierto enunciado
básico de este tipo <<mecánico>> o <<materialista>>. (El hecho de que una teoría que sea
contrastable intersubjetivamente será también contrastable intersensorialmente es lo que
permite estipular
esta condición: pues tal hecho quiere decir que las contrastaciones en que intervenga la
percepción por medio de uno de nuestros sentidos pueden ser remplazadas, en principio, por
otras en que intervengan otros sentidos.) Así pues, la acusación de que al apelar a la
observabilidad he vuelto a admitir subrepticiamente el psicologismo no tendrá mayor peso que
la de que he admitido el mecanicismo o el materialismo; lo cual hace ver que mi teoría es, en
realidad, bastante neutral, y que no debería colgársele ninguno de estos rótulos. Digo todo
esto exclusivamente para salvar al término <<observable>> -tal y como yo lo empleo- del
estigma de psicologismo. (Las observaciones y las percepciones pueden ser psicológicas, pero
la observabilidad no lo es.) No tengo intención de definir el término <<observable>>, o
<<evento observable>>, aunque estoy dispuesto a elucidarlo por medio de ejemplos
psicológicos y mecánicos; creo que debería introducirse como término no definido que
adquiere suficiente precisión en su uso: es decir, como un concepto primitivo cuyo empleo ha
de aprender el epistemólogo, lo mismo que tiene que aprender el del término <<símbolo>>, o
que el físico ha de hacer lo mismo con el término <<punto-masa>>).
Los enunciados básicos son, por tanto, en el modo material de hablar, enunciados que afirman
que un evento observable acontece en una región individual del espacio y el tiempo.
Teoría y experimento
Los enunciados básicos se aceptan como resultado de una decisión o un acuerdo, y desde este
punto de vista son convenciones. Por otra parte, se llega a las decisiones siguiendo un proceder
gobernado por reglas; y entre éstas tiene especial importancia la que nos dice que no debemos
aceptar enunciados básicos esporádicos -es decir, que no estén en conexión lógica con otros
enunciados- y que, por el contrario, hemos de admitir enunciados básicos en el curso de
nuestra contrastación de teorías: cuando suscitamos cuestiones esclarecedoras acerca de
éstas, cuestiones que tienen que contestarse gracias a la admisión de enunciados de aquel
tipo.
Así pues, la situación real es bastante diferente de la que era visible para el empirista ingenuo,
o para el creyente en la lógica inductiva. Este cree que empezamos por recopilar y ordenar
nuestras experiencias, y que así vamos ascendiendo por la escalera de la ciencia; o bien -para
emplear el modo formalizado de hablar-, que si queremos edificar una ciencia tenemos que
recoger primero cláusulas protocolarias. Pero si se me ordena <<registre lo que experimenta
ahora>>, apenas sé cómo obedecer a esta orden ambigua: ¿he de comunicar que estoy
escribiendo?; ¿que oigo llamar un timbre, vocear a un vendedor de periódicos o el hablar
monótono de un altavoz?; ¿o he de informar, tal vez, que tales ruidos me llenan de irritación?
Incluso si fuera posible obedecer semejante orden, por muy rica que fuese la colección de
enunciados que se reuniese de tal modo, jamás vendría a constituirse en una ciencia: toda
ciencia necesita un punto de vista y problemas teóricos.
Por regla general, se llega a un acuerdo sobre la aceptación o rechazo de enunciados básicos
con ocasión de aplicar una teoría: en realidad, el acuerdo forma parte de la aplicación que
consiste en someter a contraste la teoría. El ponerse de acuerdo acerca de ciertos enunciados
básicos es, lo mismo que otros modos de aplicación, ejecutar una acción con una finalidad
-guiado por consideraciones teóricas diversas.
El lógico inductivo que cree que la ciencia parte de percepciones elementales esporádicas tiene
que quedarse estupefacto ante semejantes coincidencias regulares: tienen que parecerle
completamente <<accidentales>>, pues como está en la opinión de que las teorías no son sino
enunciados de coincidencias regulares, no le está permitido explicar la regularidad por medio
de teorías. Pero, de acuerdo con la situación a que hemos llegado ahora, las conexiones
existentes entre nuestras diversas experiencias son explicables a base de las teorías que nos
ocupamos en contrastar, y deductibles de ellas. Pero, sin duda alguna, aún queda otra cuestión
(que es patente no puede responderse por medio de teoría falsable alguna, y es, por tanto,
<<metafísica>>): ¿cómo es que acertamos tan frecuentemente con las teorías que construimos,
o sea, cómo es que hay <<leyes naturales>>?
Todas estas consideraciones importan mucho para la teoría epistemológica del experimento. El
científico teórico propone ciertas cuestiones determinadas al experimentador, y este último,
con sus experimentos, trata de dar una respuesta decisiva a ellas, pero no a otras cuestiones:
hace cuanto puede por eliminar estas últimas (y de aquí la importancia que puede tener la
independencia relativa de los subsistemas de una teoría). Así pues, lleva a cabo sus
contrastaciones <<lo más sensibles que puede>> con respecto a una sola cuestión <<pero lo
más insensibles que puede con respecto a todas las demás cuestiones enlazadas con ella ...
Una parte de su tarea consiste en cribar todas las posibles fuentes de error>> Pero sería una
equivocación creer que el experimentador procede de este modo <<con objeto de facilitar el
trabajo del teórico>>, o quizá para proporcionar a este último una base en que apoyar
generalizaciones inductivas. Por el contrario, el científico teórico tiene que haber realizado
mucho antes su tarea,
o, al menos, la parte más importante de ella: la de formular su pregunta lo más netamente
posible; por tanto, es él quien indica el camino al experimentador. Pero incluso éste no está
dedicado la mayoría de las veces a hacer observaciones exactas, pues también su tarea es, en
gran medida, de tipo teórico: la teoría campea en el trabajo experimental, desde que se
establecen los planes iniciales hasta que se dan los últimos toques en el laboratorio. (Las
observaciones -y, más todavía, los enunciados de observaciones y los de resultados
experimentales- son siempre interpretaciones de los hechos observados, es decir, que son
interpretaciones a la luz de teorías. Por ello es tan engañosamente fácil encontrar
verificaciones de una teoría, y tenemos que adoptar una actitud sumamente crítica con
respecto a nuestras teorías si no queremos argumentar circularmente: precisamente la actitud
de tratar de falsarlas). Esto es perfectamente visible en algunos casos en que el teórico logra
predecir un efecto observable que se llega a producir experimentalmente más tarde. Aún más
conspicuos -tal vez- son los casos en que los experimentos han desempeñado un papel
eminente en el progreso de la teoría: en estas ocasiones, lo que fuerza al teórico a buscar una
teoría mejor es casi siempre la falsación experimental de una teoría que hasta el momento
estaba aceptada y corroborada: es decir, el resultado de las contrastaciones guiadas por la
teoría. Naturalmente, también se dan descubrimientos accidentales, pero son relativamente
raros: Mach habla con razón en semejantes casos de una <<corrección de las opiniones
científicas por circunstancias accidentales>> (con lo cual reconoce, a pesar suyo, la importancia
de las teorías).
Quizá podamos responder ahora a la pregunta acerca de cómo y por qué aceptamos una teoría
con preferencia a otras. Ciertamente, tal preferencia no se debe a nada semejante a una
justificación experimental de los enunciados que componen una teoría, es decir, no se debe a
una reducción lógica de la teoría a la experiencia. Elegimos la teoría que se mantiene mejor en
la competición con las demás teorías, la que por selección natural muestra ser más apta para
sobrevivir; y ésta será la que no solamente haya resistido las contrastaciones más exigentes,
sino que sea, asimismo, contrastable del modo más riguroso. Una teoría es una herramienta
que sometemos a contraste aplicándola, y que juzgamos si es o no apropiada teniendo en
cuenta el resultado de su aplicación. Desde un punto de vista lógico, el contraste de una teoría
depende de ciertos enunciados básicos, que, a su vez, se aceptan o rechazan en virtud de
nuestras decisiones. Así pues, son las decisiones las que determinan el destino de las teorías.
Teniendo en cuenta esto, mi respuesta a la pregunta sobre cómo escogemos una teoría se
parece a la dada por el convencionalista; y, como él, digo que la elección viene determinada, en
parte, por consideraciones de utilidad. No obstante tal cosa, hay una enorme diferencia entre
sus opiniones y las mías, pues yo mantengo que lo que caracteriza al método científico es
precisamente lo siguiente: que la convención o decisión no determina inmediatamente que
aceptemos ciertos enunciados universales, sino que -por el contrario- actúa en nuestra
aceptación de los enunciados singulares (esto es, de los enunciados básicos).
Para el convencionalista, su principio de sencillez gobierna la aceptación de enunciados
universales: escoge el sistema más sencillo. Frente a ello, yo propongo que se tenga en cuenta
antes que nada lo exigente de las contrastaciones (esto último se encuentra en relación muy
estrecha con lo que yo llamo <<sencillez>>, pero mi idea de ésta se aparta mucho de la del
convencionalista; y sostengo que lo que, en última instancia, decide la suerte que ha de correr
una teoría es el resultado de una contrastación, es decir, un acuerdo acerca de enunciados
básicos. Juntamente con el convencionalista, entiendo que la elección de una teoría
determinada es un acto que ha de llevarse a cabo, un asunto práctico; pero esta elección, para
mí, se encuentra bajo la influencia decisiva de la aplicación de dicha teoría y de la aceptación
de los enunciados básicos relacionados con tal aplicación; mientras que para el
convencionalista lo que decide son, ante todo, motivos estéticos.
Así pues, discrepo del convencionalista al mantener que los enunciados que se deciden por
medio de un acuerdo no son universales, sino singulares; y del positivista en tanto que
sostengo que los enunciados básicos no son justificables por nuestras experiencias inmediatas,
sino que -desde un punto de vista lógico- se aceptan por un acto, por una decisión libre (que,
mirada psicológicamente, bien puede considerarse como una reacción con una finalidad y bien
adaptada a las circunstancias).
Quizá sea posible aclarar la importante distinción hecha entre una justificación y una decisión
-es decir, una decisión a que se llega de acuerdo con un proceder gobernado por reglas-
ayudándose de la analogía existente con un procedimiento de gran antigüedad: el conocer de
una causa por un jurado. El veredicto del jurado (vere dictum = dicho verdaderamente), como
el del experimentador, es una respuesta a una cuestión de hechos, que ha de proponerse al
jurado en la forma más tajante y definida posible. Pero tanto la cuestión que se pregunta como
la forma en que se presenta dependerán, en gran medida, de la situación legal, esto es, del
sistema vigente de leyes penales (que corresponde al sistema de teorías). Al tomar una
decisión, el jurado acepta, por acuerdo, un enunciado acerca de un acontecimiento fáctico
(como si fuese un enunciado básico); la importancia de tal decisión radica en el hecho de que,
a partir de ella -juntamente con los enunciados universales del sistema (de leyes penales)-, es
posible deducir ciertas consecuencias; dicho de otro modo: la decisión forma la base para la
aplicación del sistema: el veredicto desempeña el papel de un <<enunciado de hechos
verdadero>>. Pero es patente que no hay necesidad de que sea verdadero meramente por
haberlo aceptado el jurado, lo cual queda reconocido por la regla que permite revocar o revisar
un veredicto.
Se llega al veredicto siguiendo un procedimiento gobernado por reglas; éstas se basan en
ciertos principios fundamentales destinados primordialmente -si no exclusivamente- a
descubrir la verdad objetiva. Estos principios permiten, a veces, que entren en juego no sólo las
convicciones subjetivas, sino incluso cierta parcialidad subjetiva; pero aunque no tengamos en
cuenta tales aspectos especiales de este procedimiento tan antiguo, e imaginemos que el
procedimiento a que nos referimos se basa únicamente en el intento de hacer que se descubra
la verdad objetiva, el veredicto del jurado continuará sin justificar jamás la verdad que afirma, y
sin dar pruebas de ella. Tampoco puede atenderse a las convicciones subjetivas de los
miembros del jurado para justificar la decisión tomada; aunque, naturalmente, existe una
estrecha conexión causal entre aquéllas y ésta: conexión que puede representarse por medio
de leyes psicológicas, por lo cual las convicciones mencionadas pueden llamarse los
<<motivos>> de la decisión. El hecho de que las convicciones no sean justificaciones tiene una
gran relación con el hecho de que el procedimiento que emplea el jurado puede regularse por
medio de reglas diversas (por ejemplo, las de mayoría simple o ponderada): lo cual hace ver
que la relación existente entre las convicciones de los miembros del jurado y el veredicto
puede ser sumamente variada. Frente a lo que ocurre con el veredicto del jurado, el fallo del
juez está <<razonado>>: necesita una justificación, y la incluye. El juez trata de justificarlo por
medio de otros enunciados -o de deducirlo lógicamente de ellos-: a saber, los enunciados del
sistema legal, combinados con el veredicto (que desempeña el papel de las condiciones
iniciales); y de ahí que sea posible apelar frente a un fallo, apoyándose en razones lógicas. Por
el contrario, sólo cabe apelar frente a la decisión de un jurado poniendo en tela de juicio si se
ha llegado a ella de acuerdo con las reglas de procedimiento aceptadas: o sea, desde un punto
de vista formal, pero no en cuanto a su contenido.
La analogía entre este procedimiento y aquél por el que decidimos acerca de enunciados
básicos es muy clara, y sirve para iluminar, por ejemplo, su relatividad y el modo en que
dependen de las cuestiones planteadas por la teoría. Cuando un jurado conoce acerca de una
causa, sin duda alguna sería imposible aplicar la <<teoría>> si no existiese primero un veredicto
al que se ha llegado por una decisión; mas, por otra parte, éste se obtiene por un
procedimiento que está de acuerdo con una parte del código legal general (y, por tanto, lo
aplica). El caso es enteramente análogo al de los enunciados básicos: aceptarlos es un modo de
aplicar un sistema teórico, y precisamente esta aplicación es la que hace posibles todas las
demás aplicaciones del mismo.
La base empírica de la ciencia objetiva, pues, no tiene nada de <<absoluta>> (Weyl escribe: <<a
mi parecer, la pareja de opuestos subjetivo-absoluto y objetivo-relativo contiene una de las más
profundas verdades epistemológicas que es posible extraer del estudio de la Naturaleza.
Quienquiera que desee lo absoluto habrá de conformarse también con la subjetividad -lo
egocéntrico-, y todo el que anhela objetividad no puede evitar el problema del relativismo>>. Y
antes leemos: <<lo que se experimenta inmediatamente es subjetivo y absoluto; por otra parte,
el mundo objetivo, que la ciencia natural trata de precipitar en una pura forma cristalina es
relativo>>. Reininger escribe: <<La metafísica como ciencia es imposible… ya que, si bien lo
absoluto se experimenta verdaderamente y, por esta razón, puede sentirse de modo intuitivo,
con todo, se niega a ser expresado mediante palabras. Pues, “si habla el alma, ay, ya no es el
alma quien habla”>>); la ciencia no está cimentada sobre roca: por el contrario, podríamos
decir que la atrevida estructura de sus teorías se eleva sobre un terreno pantanoso, es como un
edificio levantado sobre pilotes. Estos se introducen desde arriba en la ciénaga, pero en modo
alguno hasta alcanzar ningún basamento natural o <<dado>>, cuando interrumpimos nuestros
intentos de introducirlos hasta un estrato más profundo, ello no se debe a que hayamos
topado con terreno firme: paramos simplemente porque nos basta que tengan firmeza
suficiente para soportar la estructura, al menos por el momento.
Una teoría satisfactoria de los se llama tradicionalmente <<inducción>> tiene que llevar, por
razones puramente lógicas -y ello lo mismo si emplea la lógica clásica como si emplea la
probabilitaria-, o a una regresión infinita, o a apoyarse en un principio apriorístico de inducción
(es decir, a un principio sintético que no pueda ser contrastado empíricamente).
Si distinguimos, como hace Reichenbach, entre un <<procedimiento de encontrar>> y un
<<procedimiento de justificar>> (una hipótesis), entonces hemos de decir que no es posible
reconstruir racionalmente el primero. Pero, en mi opinión, el análisis del procedimiento de
justificar las hipótesis no nos conduce a nada que podamos decir que pertenece a una lógica
inductiva; pues la teoría de la inducción es superflua, y carece de función en una lógica de la
ciencia. Nunca es posible <<justificar>> o verificar las teorías científicas. Mas, a pesar de ello,
una hipótesis determinada, A, puede aventajar bajo ciertas circunstancias a otra, B: bien sea
porque B esté en contradicción con ciertos resultados de observación -y, por tanto, quede
<<falsada>> por ellos-, o porque sea posible deducir más predicciones valiéndose de A que de
B. Lo más que podemos decir de una hipótesis es que hasta el momento ha sido capaz de
mostrar su valía, y que ha tenido más éxito que otras: aun cuando, en principio, jamás cabe
justificarla, verificarla ni siquiera hacer ver que sea probable. Esta evaluación de la hipótesis se
apoya exclusivamente en las consecuencias deductivas (predicciones) que pueden extraerse de
ella: no se necesita ni mencionar la palabra <<inducción>>.
Es fácil explicar históricamente el error que suele cometerse en esta materia: se consideraba
que la ciencia era un sistema de conocimientos (esto es, de conocimientos todo lo seguros que
se pudiera), y se suponía que la <<inducción>> garantizaba su verdad; más tarde se vio
claramente que no es posible llegar a una verdad absolutamente segura, y se trató de poner en
su lugar por lo menos una especie de certidumbre o de verdad atenuadas -es decir, la
<<probabilidad>>. Pero el hablar de la <<probabilidad>> en lugar de hacerlo de la <<verdad>>
no nos sirve para escapar de la regresión infinita o del apriorismo. Desde este punto de vista
cabe darse cuenta de que es inútil y engañoso emplear el concepto de probabilidad en relación
con las hipótesis científicas. El concepto de probabilidad se emplea en la física y en la teoría de
los juegos de azar de un modo concreto, que puede definirse satisfactoriamente valiéndose del
concepto de frecuencia relativa. Pero las tentativas de Reichenbach de ampliar tal concepto de
suerte que incluya la llamada <<probabilidad inductiva>> o la <<probabilidad de hipótesis>>
están condenadas a fracasar, según mi opinión, si bien no tengo objeción alguna que hacer
contra la idea -que aquel autor trata de invocar- de una <<frecuencia veritativa>> en una
sucesión de enunciados: pues no es posible interpretar satisfactoriamente las hipótesis como
sucesiones de enunciados, e incluso si se aceptase esta interpretación no se ganaría nada, ya
que se encuentra uno abocado en diversas definiciones de la probabilidad de una hipótesis
todas enteramente inadecuadas. Por ejemplo, se desemboca en una definición que atribuye la
probabilidad 1/2 -en lugar de 0- a una hipótesis que ha quedado falsada mil veces: así ocurriría
con una hipótesis que resultase falsada en una contrastación sí y una no. Podría quizá
considerarse la posibilidad de interpretar la hipótesis, no como una sucesión de enunciados,
sino como un elemento de una sucesión de hipótesis, y de atribuirla cierto valor probabilitario
en cuanto elemento de semejante sucesión (aunque no a base de la <<frecuencia de la
verdad>>, sino de la <<frecuencia de la falsedad>> dentro de semejante sucesión). Pero esta
tentativa es, así mismo, completamente insatisfactoria: mediante consideraciones sumamente
sencillas se llega al resultado de que no podemos obtener de este modo un concepto de
probabilidad que satisfaga ni siquiera la modesta condición de que una observación falsadora
origine una disminución apreciable de la probabilidad de la hipótesis.
A mi entender, tenemos que hacernos a la idea de que no hemos de considerar la ciencia como
un <<cuerpo de conocimientos>>, sino más bien como un sistema de hipótesis: es decir, como
un sistema de conjeturas o anticipaciones que -por principio- no son susceptibles de
justificación, pero con las que operamos mientras salgan indemnes de las contrastaciones; y
tales que nunca estaremos justificados para decir que son <<verdaderas>>, <<más o menos
ciertas>>, ni siquiera <<prohables>>.
Popper, K. – Realismo y el objetivo de la ciencia
Algunas personas han sostenido que mi teoría de la ciencia ha sido refutada por los hechos de
la historia de la ciencia. Esto es un error: es un error sobre los hechos de la ciencia y también es
un error respecto a las afirmaciones de mi metodología. No considero la metodología como
una disciplina empírica a contrastar, quizá, por medio de los hechos de la historia de la ciencia.
Es, más bien, una disciplina filosófica, metafísica, y quizá, incluso, en parte, una propuesta
normativa. Se basa en gran medida en el realismo metafísico y en la lógica de la situación: la
situación de un científico sondeando la desconocida realidad que se esconde tras las
apariencias y ansioso por aprender de los errores.
No obstante, siempre he pensado que mi teoría -de la refutación seguida por la aparición de un
problema nuevo, seguida a su vez por una teoría nueva y quizá revolucionaria- era del mayor
interés para el historiador de la ciencia, puesto que llevaba a una revisión del modo en que los
historiadores debían juzgar la historia; especialmente ya que la mayoría de los historiadores
creían, en aquellos días (1934), en una teoría inductivista de la ciencia (ahora ya han
renunciado a ella -incluso mis críticos-). Que mi teoría, en la medida en que es exacta, tenga
interés para los científicos y los historiadores no tiene nada de sorprendente; porque muchos
de ellos -creo que la mayoría comparten mi concepción realista del mundo y entienden los
objetivos de la ciencia de la misma manera que yo: lograr explicaciones cada vez mejores.
Las refutaciones históricas no hicieron más que crear nuevas situaciones de los problemas que,
a su vez, estimularon la imaginación y el pensamiento crítico. Las nuevas teorías que se
desarrollaron no fueron, pues, resultados directos de las refutaciones: fueron los logros del
pensamiento creador, de los hombres que pensaron. En algunos casos se tardó cierto tiempo
antes de que la refutación se aceptase como tal: hubo con frecuencia acciones de retaguardia,
a veces incluso acciones prolongadas, antes de que la refutación se aceptase en la práctica
como refutación por todas las personas competentes, en vez de interpretarla de algún otro
modo.
Este puede ser el lugar adecuado para mencionar, y refutar, la leyenda de que Thomas S. Kuhn,
en su capacidad de historiador de la ciencia, es quien ha mostrado que mis concepciones sobre
la ciencia (llamadas a veces, pero no por mí mismo, <<Falsacionismo>>) pueden refutarse con
hechos, es decir, por medio de la historia de la ciencia. No creo siquiera que Kuhn lo haya
intentado. En todo caso, no lo ha logrado. Además, en la cuestión de la importancia de la
falsación para la historia de la ciencia, las concepciones de Kuhn y las mías coinciden casi
totalmente. Esto no significa que no haya grandes diferencias entre las concepciones de Kuhn y
las mías sobre la ciencia. Yo sostengo la antigua teoría de la verdad (casi explícita en Jenófanes,
Demócrito y Platón y bastante explícita en Aristóteles), según la cual la verdad es la
conformidad de lo que se afirma con los hechos. Las concepciones de Kuhn en esta cuestión
fundamental me parecen estar afectadas por el relativismo; más específicamente, por una
forma de subjetivismo y de elitismo como la propuesta, por ejemplo, por Polanyi. Kuhn me
parece estar también afectado por el fideísmo de Polanyi: la teoría de que un científico tiene
que tener fe en la teoría que propone (mientras que yo creo que los científicos -como Einstein
en 1916 y Bohr en 1913- se hacen cargo a menudo de que están proponiendo conjeturas que
tarde o temprano serán sustituidas por otras). Hay muchos otros puntos en los que diferimos,
el más importante de los cuales es, quizá, mi énfasis en la crítica objetiva y racional: considero
característico de la ciencia, antigua y moderna, el enfoque crítico de las teorías, desde el punto
de vista de si son verdaderas o falsas. Otro punto que me parece fundamental es que Kuhn no
parece comprender la gran importancia de las muchas revoluciones puramente científicas que
no están relacionadas con revoluciones ideológicas. En realidad, él casi parece identificar los
dos tipos.
Pero con respecto a la falsabilidad o a la imposibilidad de obtener pruebas concluyentes de
falsación y respecto a la función de ambas en la historia de la ciencia y de las revoluciones
científicas, no parece haber ninguna diferencia de importancia entre Kuhn y yo.
Kuhn, sin embargo, parece ver grandes diferencias entre nosotros en este punto, aunque
también señala muchas similaridades entre sus concepciones y las mías. Cuando escribió su
primer libro me consideraba un <<falsacionista ingenuo>>. Sin embargo, en ese libro, Kuhn
aceptaba prácticamente mis auténticas concepciones sobre el carácter revolucionario de la
evolución de la ciencia. Se desvía de mis concepciones sólo en que sostiene lo que he descrito
como <<fideísmo>>, porque afirma que <<un científico tiene que creer en su sistema antes de
confiar en él como guía para la investigación fructífera de lo desconocido>>. Pero Kuhn me
sigue de cerca cuando continúa: <<Pero el científico paga el precio de compromiso… una sola
observación incompatible con su teoría puede demostrar que ha estado empleando una teoría
equivocada en todo momento. Entonces debe abandonar su esquema conceptual y
sustituirlo>>. Esto es, obviamente, <<falsacionismo>>; de hecho, es algo parecido a un
<<estereotipo metodológico de la falsación>>. Kuhn continúa: <<En esquema, ésta es la
estructura lógica de una revolución científica. Un esquema conceptual… lleva finalmente a
resultados que son incompatibles con las observaciones… Es un esquema útil, porque la
incompatibilidad de teoría y observación es la fuente primaria de toda revolución en la
ciencia>>. Este <<esquema útil>> no es sólo falsacionista; es un estereotipo mucho más
simplista del falsacionismo que nada de lo que yo mismo haya dicho jamás; en realidad,
siempre he estado en total acuerdo con la siguiente observación, más crítica, que añade Kuhn:
<<Pero, históricamente, el proceso de la revolución no es nunca, y no podría ser de ningún
modo tan sencillo como indica el esquema lógico. Como ya hemos empezado a descubrir, la
observación no es nunca absolutamente incompatible con una teoría>>. Naturalmente, yo ya
había señalado siempre que <<la observación está impregnada de teoría>>, de la misma
manera que señalaba que es imposible presentar una <<contra-prueba>> incuestionable de
una teoría empíricamente científica). Por ello, me quedé perplejo cuando leí en el segundo
libro de Kuhn: <<Ningún proceso de los revelados hasta el momento por el estudio histórico del
desarrollo científico se asemeja en absoluto al estereotipo metodológico de la falsación por
comparación directa con la naturaleza>>. ¿qué quería decir Kuhn con esto? ¿Qué el proceso
histórico no se asemeja en absoluto a un proceso de falsación, o que no se asemeja a ese
<<estereotipo>> que él caracteriza como la <<comparación directa con la naturaleza>> que él
llama en otro lugar <<falsacionismo ingenuo>> y que yo, por lo menos, siempre he rechazado?
La verdadera pieza clave de mi pensamiento sobre el conocimiento humano es el falibilismo y
el enfoque crítico; y veo que el conocimiento humano es un caso muy especial de
conocimiento animal. Mi idea central en el terreno del conocimiento animal (incluido el
conocimiento humano) es que se basa en conocimiento heredado. Tiene el carácter de las
expectaciones inconscientes. Siempre se desarrolla como consecuencia de modificaciones del
conocimiento anterior. La modificación es (o es como) una mutación: viene de dentro, tiene el
carácter de un globo de prueba, es intuitiva o atrevidamente imaginativa. Tiene, pues, un
carácter conjetural: la expectación puede resultar frustrada, el globo puede pincharse: toda la
información que se recibe de fuera es eliminatoria, selectiva. Lo especial del conocimiento
humano es que puede formularse en un lenguaje, por medio de proposiciones. Ello hace
posible que el conocimiento se haga consciente y sea criticable objetivamente por medio de
argumentos y de contrastaciones. De este modo llegamos a la ciencia. Las contrastaciones son
intentos de refutación. Todo conocimiento sigue siendo falible, conjetural. No hay justificación
no, naturalmente, justificación definitiva de una refutación. No obstante, aprendemos por las
refutaciones, es decir, por la eliminación de errores, por un proceso de realimentación. En esta
descripción no hay lugar en absoluto para la <<falsación ingenua>>.
Otra objeción a mi teoría del conocimiento está mejor fundada, aunque su impacto en mi
teoría es insignificante. Es el admitido fracaso de una definición (de la similitud con la verdad o
aproximación a la verdad). Voy a explicar primero con dos ejemplos, 1) y 2), el único tipo de
uso de la idea de similitud con la verdad que puede aparecer en mi teoría del conocimiento (o
en la de cualquier otro).
1) El enunciado de que la tierra está en reposo y que los cielos estrellados rotan a su alrededor
está más lejos de la verdad que el de que la tierra rota alrededor de su propio eje; que es el sol
el que está en reposo; y que la tierra y los otros planetas giran en órbitas circulares alrededor
del sol (como propusieron Copérnico y Galileo). El enunciado, debido a Kepler, de que los
planetas no se mueven en círculos, sino en elipses (no muy alargadas) con el sol en su foco
común (y con el sol en reposo o girando sobre su eje) es una mayor aproximación a la verdad.
El enunciado, debido a Newton, de que existe un espacio en reposo, pero que, aparte de la
rotación, su posición no puede hallarse por medio de la observación de las estrellas o de
efectos mecánicos, es un paso más en la dirección de la verdad.
2) Las ideas de Gregor Mendel sobre la herencia estaban más próximas a la verdad, al parecer,
que las concepciones de Charles Darwin. Los experimentos posteriores de reproducción con
moscas de la fruta (mosca mediterránea) llevaron a mayores progresos en la similitud con la
verdad de la teoría de la herencia. La idea del acervo genético de una población (una especie)
supuso un paso más. Pero los pasos más importantes, con mucho, fueron los que culminaron
con el descubrimiento del código genético.
Estos ejemplos, 1) y 2), muestran, creo, que no es necesaria una definición formal de similitud
con la verdad para poder hablar inteligentemente de ella. Entonces, ¿por qué intenté dar una
definición formal? He argüido a menudo que las definiciones son innecesarias. Nunca son
realmente necesarias y rara vez útiles, excepto en el siguiente tipo de situación: introduciendo
una definición podemos mostrar que no sólo se necesitan menos suposiciones básicas para
una buena teoría, sino que, además, nuestra teoría puede explicar más que sin la definición. En
otras palabras, una nueva definición tiene interés sólo si la teoría resulta fortalecida por ella.
Creí que podía hacer esto con mi teoría de los objetivos de la ciencia: la teoría de que la ciencia
busca la verdad y la resolución de problemas de explicación, es decir, que busca teorías de
mayor capacidad explicativa, mayor contenido y mayor contrastabilidad. La esperanza de
fortalecer aún más esta teoría de los objetivos de la ciencia por medio de la definición de
similitud con la verdad en términos de verdad y de contenido fue, desgraciadamente, vana.
Pero la concepción, muy extendida, de que el abandono de esta definición debilita mi teoría,
carece por completo de fundamento. Puedo añadir que acepté la crítica hecha a mi definición a
los pocos minutos de
su presentación, preguntándome cómo no habría visto el error yo mismo antes, pero nadie ha
mostrado nunca que mi teoría del conocimiento haya resultado debilitada en lo más mínimo
por esta infortunada definición errada o que la idea de similitud con la verdad (que no es una
parte esencial de mi teoría) no pueda seguir usándose dentro de mi teoría como concepto sin
definir.
Rojo, R. – Popper y el positivismo lógico
La demarcación
El problema de la demarcación y los principios de la verificación, según la tesis que sostengo,
no se habría forjado la idea de la demarcación popperiana de no haber caído la verificación
neopositivista en insuperables atolladeros. Quien haya seguido con paciencia las alternativas
de la teoría de la verificación no puede dejar de reconocer el laborioso empeño de los neo-
positivistas por alcanzar una coherente propuesta de la idea de la verificación. Los combates
internos de la escuela, como acaso no hubo otros en la historia de la filosofía, acabaron por
mostrar el agotamiento del problema o por señalar sus inevitables debilidades. Es entonces
cuando estalla una nueva visión de las cosas, es entonces cuando irrumpe una nueva
perspectiva. Así, ante los despojos de los principios neopositivistas, pero no antes, Popper traza
el círculo de una nueva y prometedora idea, la idea de la demarcación.
Para Popper, la diferencia de estas dos nociones se sitúa en el ámbito del sentido, uno de los
temas de los neopositivistas, para quienes aparte de las proposiciones matemáticas, sólo
tienen sentido, las proposiciones verificables y carecen de él, esto es, son sin sentido, las
proposiciones inverificables como la de la metafísica. Una proposición como “La Voluntad es la
esencia de la Realidad” no es una proposición falsa, porque en este caso su negación sería
verdadera, sino una proposición inverificable, esto es, metafísica o sin sentido. Nunca en la
historia de la filosofía había llegado a tal extremo la recusación de la metafísica.
Al rechazar este modo de encarar el problema del sentido, Popper descalifica con fuertes
argumentos epistemológicos el principio de la verificación, convertido por los representantes
del Círculo de Viena en criterio de sentido de las proposiciones. Waismann formuló este
principio con claridad: “Si no es posible determinar si un enunciado es verdadero, entonces
carece enteramente de sentido: pues el sentido de un enunciado es el método de su
verificación.” De todos modos, a pesar de reconocer la autenticidad del problema del sentido a
que obsesivamente se entregaron los neopositivistas, Popper señala con claridad que no se
trata de establecer lo que tiene sentido frente a lo que carece de él, esto es, que el criterio de
demarcación, la falsabilidad no es un criterio de sentido, sino que dentro de la esfera del
sentido distingue los enunciados empíricos o refutables de los metafísicos o irrefutables. Vale
decir que, pesar de sus críticas al problema del sentido, Popper utiliza esta noción en la
justificación de su teoría. En suma, el criterio de demarcación no es la verificabilidad sino la
falsabilidad de los sistemas. Esto conlleva una actitud diferente ante la metafísica, pues
mientras que los neopositivistas la relegaban al desván de lo sin sentido, para Popper la
metafísica, integrada por enunciados no falsables, ha mostrado a lo largo de la historia de la
ciencia una indiscutida fecundidad, proponiendo y encarando cuestiones que ulteriormente la
ciencia había de hacer suyas.
Popper y la Lógica
Donde también es visible la deuda que Popper tiene con el neopositivismo es en la utilización
de la Lógica, la Lógica de Russell, en el análisis y esclarecimiento de los problemas filosóficos.
Como es sabido, el positivismo del Círculo de Viena es el primero históricamente en valerse
rigurosamente de los esquemas formales de la Lógica Matemática para fundamentar los
principios de su doctrina. Y gran parte de la racionalidad de la doctrina popperiana, su claridad
y rigor, su carácter argumentativo que extrae limpiamente las consecuencias que manan de sus
tesis se vincula con los métodos del pensar lógico. Uno de muchos ejemplos de esta presencia
de lo lógico –y no sólo de la Lógica a secas– en el pensamiento filosófico de Popper, tiene que
ver con la idea de la falsación. La distinción entre enunciados universales y existenciales, entre
lo que él llama universalidad estricta y la universalidad numérica, así como la diferencia entre
conceptos universales y conceptos individuales constituyen los fundamentos lógicos de la
teoría de la falsación que, por otra parte, se ajusta al modelo lógico del Modus Tollens, según el
cual, la falsación de una conclusión entraña la falsación del sistema de que se ha deducido. Hay
más,
La formulación rigurosa de lo que se entiende por teoría empírica apela a la noción lógico-
matemática de “clase”, “subclase” y “clase vacía”. “Una teoría es falsable si la clase de sus
posibles falsadores no es una clase vacía”. Una teoría empírica divide la clase de los posibles
enunciados básicos en dos subclases no vacías, la de los enunciados que la teoría permite y la
de los enunciados que la teoría prohíbe. Se alcanza así una definición precisa de los enunciados
metafísicos. Con esta teoría de la falsación se llega al extraño resultado de que los enunciados
metafísicos, al igual que las tautologías, son tales que la clase de sus posibles falsadores es una
clase nula. Es tan irrefutable el enunciado metafísico “El espíritu es la esencia del mundo“
como el enunciado tautológico “llueve o no llueve”.
Otro punto sobre el cual quiero llamar la atención y que traduce una vez más la deuda de
Popper con el neopositivismo es su teoría de los enunciados básicos cuya solución partió de las
dificultades con que se enfrentaron los representantes del neo-postivismo en la dilucidación y
posición dentro de una teoría de los entonces llamados enunciados protocolarios. Hay que
decir entonces que tanto los neopositivistas como Popper coincidían en la búsqueda de los
enunciados últimos e irreductibles sobre los cuales apoyar el saber empírico, si bien por tales
entendían cosas diferentes.
Quiero referirme ahora a la teoría de Popper sobre los tres mundos y señalar que una de sus
deudas con respecto a su tripartición del mundo proviene, entre otros filósofos, de Frege con el
cual, en el planteamiento de este problema, tiene más afinidad que con los otros antecedentes
como la teoría de las ideas de Platón. Aludo a Frege porque es uno de los matemáticos y
filósofo de la Lógica que estuvo vinculado con Russell y es responsable, en gran parte, de la
atmósfera científica que rodeó al neopositivismo. En un texto llamado Pensamiento, Frege
distingue con singularidad tres reinos o mundos perfectamente diferenciados cada uno con
características inconfundibles. Estos mundos son: a) el mundo interior, b) el mundo exterior y c)
el mundo del pensamiento. El mundo interior –llamado idea– es el mundo de las impresiones,
sensaciones, sentimientos, decisiones. Los rasgos esenciales de las ideas son las siguientes. 1)
No pueden ser vistas ni tocadas ni oídas a diferencia de lo que ocurre con las cosas del mundo
exterior. 2) Hay alguien en cuya conciencia se dan estas ideas, esto es, que el mundo interior
presupone un portador, a diferencia del mundo exterior que es independiente del sujeto. 3)
Toda idea tiene un solo portador. Una idea no puede ser el contenido de dos conciencias o
sujetos diferentes. Mis sensaciones son incomparables con las sensaciones de los demás.
Las cosas del mundo exterior, en cambio, pueden ser vistas u oídas por sujetos diferentes.
Aunque Frege confiere al término “idea” un sentido que difiere del uso más generalizado, es
clara la manera que tiene de acotar el mundo interior o psicológico, contrapuesto al mundo
exterior. Importa también destacar la distinción que establece entre el mundo interior de la
idea y el mundo de lo que llama los pensamientos, que no pertenecen al mundo exterior de las
cosas ni al mundo interior de las ideas o percepción. Este reino de los pensamientos tiene
también rasgos propios. Como las ideas, los pensamientos no son susceptibles de percepción, y
al igual que los objetos exteriores no requieren de portadores. Por otro lado, el pensamiento, a
diferencia de la idea, es invariable, intemporal de suerte que si la aprehensión del teorema de
Pitágoras varía con las aprehensiones de los distintos sujetos o conciencias, el contenido del
teorema permanece siempre idéntico a sí mismo.
Esta distinción fregeana pauta de manera visible la teoría del conocimiento de Popper con su
idea de los tres mundos claramente expresada a lo largo de su obra y puesta de relieve
inequívocamente en su idea del conocimiento sin sujeto cognoscente. Es claro que la
originalidad de Popper en la idea del tercer mundo va más allá de la teoría de Platón y de la de
Bolzano y Frege y suscita, por ello mismo, problemas y dificultades propias.
La verdad semántica
Por último, quiero aludir en este excursus ideológico, a la admiración de Popper por la teoría
semántica de la verdad del lógico polaco Tarski que contribuyó mucho al desarrollo de la Lógica
Matemática. Si la tarea principal de la filosofía y de la ciencia es, dice Popper, la búsqueda de la
verdad, favorecerá este empeño una teoría de la verdad sencilla, sin complicaciones, alejada de
hermetismos y complicaciones, y estas exigencias se hallan materializadas en la teoría
semántica de la verdad de Tarski, según la cual la verdad y la falsedad se consideran
esencialmente como propiedades de enunciados. Más de una consecuencia filosófica extrajo
Popper de esta idea semántica de la verdad. Por ejemplo, esta idea de verdad es objetiva, pero
no absoluta porque es imposible que haya un criterio de verdad que nos suministre absoluta
certeza o seguridad. Un criterio semejante sólo cabe en lenguajes artificiales muy simples. En la
teoría del conocimiento de Popper juega un papel importante el concepto relacionado al de
verdad, el de verosimilitud, que a su vez da cuenta de nuestra condición de buscadores pero no
de poseedores de la verdad. ”Esta tendencia, dice, irrenunciable a buscar la verdad sin
alcanzarla, esta aproximación a la verdad ilumina la noción lógica de verosimilitud.” Esto explica
que para Popper
la ciencia, el conocimiento sea una faena interminable, sintetizable en la dinámica noción de
progreso.
Basten los ejemplos anteriores para testimoniar la influencia que tuvo el Positivismo Lógico en
la construcción teórica de Popper, influencia que puede resumirse en dos apartados: a) muchas
de sus ideas constituyen respuestas y superaciones de dificultades intrínsecas del
neopositivismo y b) comparte formalmente con él el temple científico y racional de la filosofía.
De este modo, el pensamiento de Popper ilustra, una vez más, la condición histórica de la
filosofía, su profunda conexión con el pasado y su apertura a nuevas formas de pensar y de
interpretar el mundo. Para él, como para todo auténtico filósofo que lanza nueva luz para
esclarecer los sempiternos problemas de la filosofía, caben las palabras de Newton forjadas
ante
la obra revolucionaria de los grandes científicos que le precedieron: “Somos enanos sentados
en hombros de gigantes”.
Martínez Muñoz, S. – Otto Neurath y la filosofía de la ciencia en el siglo XX
Otto Neurath fue uno de los fundadores del llamado Círculo de Viena, y uno de los más
importantes promotores del "empirismo lógico"; término acuñado por él. Rudolf Carnap es el
más conocido de los promotores del empirismo lógico, tanto él como Neurath, siempre
tuvieron muy claro que lo que los unía no era una posición filosófica, sino un fin político.
Carnap y Neurath compartían la convicción de que la promoción de una filosofía "científica",
más tarde o más temprano, se traduciría en -cito a Carnap- "un mejoramiento de nuestras
maneras de pensar científicamente, y por lo tanto en un mejor entendimiento de lo que pasa
en el mundo, en la naturaleza y la sociedad". Carnap siempre reconoció que una de las
contribuciones más importantes de Neurath había sido su insistencia en que las condiciones
históricas y sociales tenían que tomarse en cuenta a la hora de entender el desarrollo de
concepciones filosóficas. Carnap compartía esta idea, pero veía claramente cuál era la
diferencia fundamental entre él y Neurath: mientras que para él y para Schlick había un
método filosófico que debía cultivarse y resguardarse de intrusiones provenientes de la
práctica, para Neurath esa posición neutralista sólo era "una ayuda reconfortante para los
enemigos del progreso social".
El desarrollo de las propuestas de Kuhn, y sobre todo de Feyerabend y de la sociología y la
historia de la ciencia en la segunda mitad del Siglo XX, le dan la razón a Neurath.
Implícitamente, buena parte de la filosofía de la ciencia de finales de este siglo niega que exista
tal “método filosófico” propio y autónomo de las normas epistémicas desarrolladas en la
ciencia. Las diferencias filosóficas entre Neurath y Carnap en los años treinta y cuarenta son
ciertamente más de fondo que las diferencias entre Carnap y Popper; es más, hay una cierta
continuidad entre el Carnap tardío y el Kuhn de La estructura de las revoluciones científicas que
ponen a ambos autores en mayor cercanía de lo que puede ponerse a Neurath y Carnap. No
hay una línea divisoria filosóficamente significativa que justifique colocar a Carnap y Neurath
de un lado y a Feyerabend y Kuhn del otro. Hay diferencias sociológicas e históricas, de
generación si se quiere, pero todavía están por darse argumentos que muestren que esa es una
distinción filosóficamente significativa.
En 1913, Neurath escribe dos artículos muy importantes en los cuales juegan un papel central
dos metáforas que van a ser el hilo conductor del desarrollo de su filosofía en las próximas tres
décadas; la metáfora de Descartes de un caminante perdido en el bosque y la metáfora del
conocimiento como un barco que tiene que repararse en alta mar. La primera metáfora es la
que utilizó Descartes en el Discurso del método. Según el filósofo este caminante no puede sino
recurrir a una estrategia no fundamentada en la razón para decidir qué rumbo tomar, pero
sería peor que se quedara sentado o que caminara sin rumbo fijo. Aunque no llegara a donde
quisiera llegar por lo menos eventualmente saldría del bosque. Según Descartes esta actitud
pragmática es aceptable para decidir sobre nuestras acciones en condiciones de incertidumbre,
pero ciertamente no sería aceptable en el pensamiento. Descartes -nos recuerda Neurath-
piensa que en el ámbito de la teoría, es decir, el pensamiento, es posible acercamos por medio
de la acumulación de verdades, a una visión completa y correcta del mundo.
Hay una diferencia profunda para Descartes entre nuestra manera de proceder en el ámbito de
la práctica y el ámbito de la teoría. Esta idea es una de sus herencias más persistentes en la
modernidad. Es la idea que está detrás de la distinción defendida por Carnap y Schlick, y en
general por los filósofos analíticos, de que hay un método filosófico diferente y autónomo de
los métodos y normas que se desarrollan en la ciencia. En el ámbito del pensamiento, dice
Descartes, "nada es tan difícil que no podamos llegar a alcanzarlo, nada está tan oculto que no
podamos llegar a descubrirlo". Sin embargo, para Neurath, precisamente el desarrollo de la
ciencia nos obliga a abandonar la pretensión de que tenemos esa capacidad racional sin límites
que asume Descartes, y que por lo tanto, tenemos que proceder de otra manera. Neurath
propone que el mismo tipo de reglas heurísticas que según Descartes debemos utilizar para
decidir en situaciones prácticas deben ser empleadas en el pensamiento, en el ámbito de la
teoría. A diferencia de lo que Descartes creía, la filosofía no puede pretender guiarse por el
ideal normativo de la certeza. Tenemos que proceder sin la pretensión de que estamos
acumulando verdades que nos llevan hacia una visión del mundo. La construcción de una
visión del mundo o de un sistema científico requiere asumir que sus premisas siempre están
sujetas a cuestionamiento. Cualquier pretensión de construir un sistema científico sobre una
base definitiva está destinada al fracaso.
Neurath, como Quine va a recalcar en los años cincuenta, considera que los fenómenos de la
experiencia están de tal manera entremezclados entre sí que no es posible descomponerlos en
una cadena uni-dimensional de oraciones. La corrección de una oración depende de otras
oraciones, y no tiene sentido hablar de la corrección de una oración aislada. Es sólo en el
contexto de un sistema lingüístico que podemos hablar de corrección: <<Una oración aislada
sobre el mundo no puede ser formulada sin recurrir a muchas otras oraciones de manera
velada. No es posible enunciar algo sin recurrir a nuestro aparato conceptual antecedente.
Debemos evaluar la conexión entre una oración que nos dice algo acerca del mundo y todas las
otras oraciones que nos dicen algo acerca del mundo, y debemos por otra parte establecer la
conexión entre los procesos de pensamiento que nos llevan a esos enunciados con nuestros
antecedentes procesos de pensamiento>>. Descartes, nos dice Neurath, habla de procesos
mentales como un sistema de relaciones lógicas que no tienen nada que ver con la manera en
la que se implementan sicológicamente. Descartes parece asumir que un pensamiento es algo
que siempre podemos empezar de nuevo, algo que no tiene una historia. Pero ¿qué hacer
cuando el pensar a fondo una hipótesis nos lleva toda una vida? ¿Qué hacer cuando antes de
poder concluir la investigación tenemos que tomar decisiones que nunca podremos
reconsiderar? ¿Qué hacer cuando no creer en nada no es una opción?
Neurath apunta aquí al meollo de una discusión contemporánea: la teorización no debe verse
como una actividad separada de la práctica, es sólo en un contexto de prácticas donde
podemos darle sentido y entender a una teoría como conocimiento. No debemos pensar que
el ámbito del pensamiento es el ámbito de las teorías sin cuerpo sicológico-histórico-social. Las
teorías no existen en ningún paraíso platónico o estructuralista, más bien deben verse como
construcciones intelectuales apoyadas en un contexto de prácticas que se estructuran en
tradiciones intelectuales que tienen una historia.
Hoy en día, nos dice Neurath -esto es en 1913- la mayoría de nuestros contemporáneos
piensan, como Descartes, que la solución a todos nuestros males y la fuente de todas nuestras
decisiones debe residir en una razón determinada. Se asume, dice Neurath, que una reflexión
concienzuda nos llevará a establecer las posibles alternativas y que nos permitiría decidir cuál
de ellas es la más probable. No se piensa que vale la pena reflexionar sobre aquellas
situaciones difusas y confusas en las que este procedimiento no funcionaría; estos creyentes en
una razón determinada parten del supuesto de Descartes de que a través de la teoría nos
acercamos a una visión completa del mundo, y es esa fe que los mueve a concebir el desarrollo
de la ciencia como un desarrollo de teorías. Este "pseudoracionalismo" -como lo llama
Neurath-- lleva al auto engaño y a la hipocresía. Popper era para Neurath el paradigma de un
pseudo-racionalista. El pseudo-racionalismo, según Neurath, consiste en la pretensión de
resolver todas las cuestiones de decisión y acción de la misma manera como Descartes
pretendía que se podían resolver las cosas en el ámbito de lo teórico a partir de la aplicación
de una razón determinada. Para Neurath era muy importante, y guió mucho de su trabajo
profesional, la idea de que esta situación era reforzada por el sistema educativo imperante, y
que cambiar las cosas requería cambiar la manera de enseñar lo que era la ciencia y el papel
que la ciencia podía jugar en un proyecto de reconstrucción social. La educación tenía que
hacer énfasis en nuestras limitaciones para proceder racionalmente y en este reconocimiento
la ciencia y la enseñanza de la ciencia, y sobre todo la estadística, tenían que jugar un papel
central. Neurath dice: <<Precisamente, en la tarea de reconocer las fronteras del racionalismo
debemos ver el mayor triunfo del racionalismo. La tendencia al pseudoracionalismo tiene el
mismo origen que la superstición. Cada vez más esta perniciosa versión de la ilustración les
roba [a los hombres] los medios de antaño que les permitían y eran adecuados para llegar a
decisiones claras. Cada vez más se deja a los hombres a merced de esa razón determinada de
la que sólo puede exprimirse un sucedáneo ... El pseudoracionalista pretende siempre actuar
con base en una razón determinada, y siempre estará agradecido a aquél que le sugiere cómo
actuar guiado por esa razón o discernimiento determinado>>. Este pseudoracionalismo lo
encuentra Neurath en toda la cultura de su tiempo,
en los discursos políticos y en la falta de crítica a estos discursos. Los votantes, dice Neurath, se
sienten satisfechos de alguien que les determine el futuro aparentemente guiados por la razón,
que les diga cómo decidirse, no importa mucho que un cierto tipo de decisión no sea
apropiada para el tipo de situación de que se trate. Neurath piensa que para alejarnos del
pseudoracionalismo requerimos retomar seriamente la reflexión respecto a lo que él llama
"motivaciones auxiliares". Para Neurath esas "motivaciones auxiliares" deben servir como
puente entre el racionalismo y la tradición. Una "motivación auxiliar" es una guía del
razonamiento que surge de la práctica y la tradición, y, por lo tanto, requiere de manera
esencial para su preservación, del reconocimiento por una comunidad de su ámbito de
aplicación y de su utilidad como principio heurístico de decisión. El uso de las "motivaciones
auxiliares" como un tema central de una teoría de la racionalidad tanto en la ciencia como
fuera de ella requiere de un grado mayor de organización social como condición para su
desarrollo, a diferencia de lo que implícitamente supone el pseudoracionalismo.
Los frutos de cualquier filosofía que pretenda servir a un proyecto de emancipación de la
sociedad humana tienen que pasar por una reforma educativa. Neurath le dedica la mayor
parte de su vida a este tipo de proyectos. En particular le va a dedicar varias décadas al
desarrollo de un lenguaje internacional pictórico que debería ser una herramienta decisiva en
la transmisión del conocimiento, un lenguaje que permitiría que la estadística fuera utilizada en
el desarrollo de "motivaciones auxiliares" por personas que no tuvieran los conocimientos
matemáticos adecuados para entender ese conocimiento directamente. Este lenguaje
permitiría a las sociedades modernas el desarrollo de las "motivaciones auxiliares" que, a su
vez, fomentarían el reconocimiento de la importancia de la cooperación para lograr un mundo
mejor.
La segunda metáfora que guía el trabajo de Neurath tiene que verse como la primera en el
contexto de su crítica al pseudo-racionalismo y en el contexto de la importancia que Neurath le
otorga al desarrollo de los recursos racionales implícitos en "las motivaciones auxiliares". Esta
metáfora dice: <<Somos como marineros que tienen que reconstruir su barco en alta mar, sin
poder desmantelarlo en un puerto y reconstruirlo de mejores componentes>>. Según Neurath,
una vez que abandonamos la pretensión del pseudoracionalista de poder reducir los problemas
de método y estructura de la ciencia a los criterios de una "razón determinada" (a criterios
“algorítmicos”, esto es aquellos criterios que ignoran el papel formador y constitutivo de las
formaciones conceptuales antecedentes en cualquier sistema de creencias propiamente
científico), la pregunta que surge es la siguiente: ¿Cómo hacer que toda esa corporalización de
nuestra razón, que tiene lugar en instituciones y prácticas, responda a la experiencia, o como
decía Neurath, sea controlable por la experiencia? Esto requiere una concepción muy diferente
de lo que debe entenderse por conocimiento. El "fisicalismo" para Neurath es una respuesta a
esta pregunta. Neurath (tampoco Carnap) jamás entendió al fisicalismo como propuesta para
que el discurso científico se redujera al lenguaje de la física. El fisicalismo de Neurath requiere
que toda aserción científica sea controlable por la experiencia, y esto para Neurath equivalía a
decir que era en principio refutable por sucesos actuales o posibles (sucesos que tienen lugar
en el espacio y el tiempo). Este es, me parece, el único punto importante en el cual Neurath
sigue la tradición positivista de Mach. En este sentido Neurath es positivista. Para Neurath, las
formas discursivas de la ciencia no eran meramente lenguaje, ni podrían enclaustrarse en un
lenguaje formal como Carnap llegó a pensar en los años treinta. Para Neurathl, las teorías
científicas eran como las teorías económicas que "siempre aparecen y se estiman correctas en
relación directa a las necesidades de los países que son preponderantes en el mercado
mundial".
En este proyecto neurathiano hay implícita una manera muy original y fructífera de entender el
tipo de convencionalismo que es importante en la ciencia y su alcance explicativo. Mach había
propuesto lo que parecía ser la única salida que quedaba libre después del reconocimiento del
colapso del proyecto kantiano: naturalizar la razón en el contexto de una epistemología
evolucionista que permitiría explicar esa aparente y sorprendente coincidencia de nuestras
capacidades cognitivas con la estructura de los fenómenos (nuestra experiencia), sin tener que
postular principios que explicaran esa adecuación de manera irreconciliable con una actitud
empirista-naturalista. La filosofía analítica, Carnap en particular, encontraron una manera de
responder a este desafío, a saber, el proyecto de la "reconstrucción racional" de la ciencia. Este
proyecto se basaba en la posibilidad de entender el método filosófico como un método de
análisis de nuestros conceptos, un análisis que dependía de ciertos supuestos acerca de una
racionalidad implícita en todos los seres humanos, pero que no dependía de la manera como el
conocimiento había sido conformado históricamente. Neurath pretende evitar el
reduccionismo biológico de Mach, y el supuesto de un "método analítico", haciendo ver que el
conocimiento no es más que una estructura compleja de prácticas socialmente constituidas
que generan cierto tipo de normas, normas que entendemos como epistémicas o cognitivas.
Mach reducía las normas cognitivas a normas biológicas, Carnap las reducía a principios a
priori, Neurath en su lugar pretendía explicar (por lo menos muchas de ellas) las decisiones de
los científicos como "convenciones" tomadas a partir de juicios basados en "motivaciones
auxiliares" que respondían a criterios implícitos en las diferentes prácticas, y que podían
incluso sugerir diferentes maneras de decidir, pero que no por eso dejaban de ser racionales.
Neurath nunca desarrolló sistemáticamente este tipo de respuesta, pero es clara su propuesta
a lo largo de una serie de trabajos que escribió durante más de tres décadas (desde 1913 hasta
poco antes de su muerte en 1945).
Como reconoce Carnap en su autobiografía: <<Una de las contribuciones más importantes de
Neurath consistió en sus frecuentes comentarios sobre las condiciones históricas y sociales
para el desarrollo de las concepciones filosóficas. Criticó fuertemente la imagen común,
defendida entre otros por Russell y Schlick, de que la aceptación amplia de una doctrina
filosófica depende predominantemente de su verdad>>. Nótese que Carnap se distancia de esa
"imagen común, defendida entre otros por Russell y Schlick". Carnap, por caminos diferentes,
llega al final de su vida a defender posiciones que Neurath hubiera aplaudido. Para el Carnap
de los años cincuenta las teorías no son idénticas a marcos lingüísticos, y como han señalado
vanos autores en trabajos recientes, el concepto de marco lingüístico de Carnap debe
entenderse más como las "estructuras léxicas" del Kuhn de los noventa, que como la historia
de libro de texto que entiende a Carnap, y como parece haber pensado Carnap en los años
treinta que los marcos lingüísticos tienen sólo un valor pragmático, no cognitivo. Los marcos
lingüísticos no tienen implicaciones ontológicas, es decir, implicaciones para las maneras en las
que entendemos cómo el mundo se constituye o está estructurado en (clases) de entes, por
ello, no debe extrañarnos que Carnap recomendara con genuino entusiasmo que Thomas Kuhn
escribiera una monografía (que sería publicada en 1962 con el nombre de La estructura de las
revoluciones científicas) en la colección de la Enciclopedia de la ciencia unificada, ese sueño
editorial de Neurath que pretendía difundir la filosofía científica de los empiristas lógicos.
Como le dice Carnap a Kuhn en la carta en la que le comunica que su monografía va a aparecer
pronto en la colección publicada por la editorial de la Universidad de Chicago: <<Encuentro
muy iluminador [sobre todo] el paralelo que usted establece [entre la manera que las teorías
cambian] y la evolución Darwiniana ... [y el énfasis en la idea que] las teorías no están dirigidas
hacia una teoría perfecta
final, sino que es un proceso de mejoramiento de un instrumento. En mi propio trabajo en
lógica inductiva, en años recientes he llegado a una idea similar ...>>. Neurath ciertamente
hubiera estado de acuerdo con Carnap en esto. Una famosa discusión que tuvo lugar en la
revista Erkenntis en los años treinta entre Carnap y Neurath, giraba precisamente alrededor de
la cuestión de si los marcos lingüísticos de las teorías científicas no tenían implicaciones
cognitivas, como pensaba Carnap (en los años treinta), o si más bien ese marco lingüístico
debía verse como cognitivamente significativo, con implicaciones para la manera de estructurar
el mundo en conocimiento, como pensaba Neurath. En los años sesenta Carnap le da la razón a
Neurath y a Kuhn en un punto filosóficamente crucial que muchas veces se toma como el
punto de inflexión que distingue entre la "vieja" y la "nueva" filosofía de la ciencia.
En conclusión, la historia de la filosofía de la ciencia en el siglo XX, y en particular la histona del
positivismo en la filosofía de la ciencia, es un tema muy complejo que no puede reducirse a la
pretendida oposición entre "positivistas" y "postpositivistas", eje alrededor del cual tienden a
plantearse los problemas en buena parte de la filosofía contemporánea de la ciencia. El caso de
la filosofía de Otto Neurath es un buen ejemplo de cómo la historia de los problemas
filosóficos,
y en particular el problema de las implicaciones cognitivas de las prácticas lingüísticas no
obedecen a distinciones artificiales como la supuesta distinción entre "positivistas" y
"postpositivistas".