You are on page 1of 205

Filosofía de las Ciencias

Introducción

Unidad 1

Filosofía de las ciencias. Historia disciplinar y sus problemas. Las etapas del desarrollo
disciplinar. Epistemología, Filosofía de las ciencias y Teoría del conocimiento: del conocimiento
en general al análisis de las teorías científicas. La pluralidad problemática de la disciplina:
cuestiones lógicas, epistemológicas y metafísicas.

Moulines, C. U. – El desarrollo moderno de la filosofía de la ciencia

Prólogo

En ciertos aspectos, la filosofía de la ciencia, que es una disciplina reciente, tiene relaciones
temáticas con otra disciplina filosófica mucho más antigua, la teoría (o filosofía) del
conocimiento. Sin embargo, siguen una metodología bastante diferente. El objeto de la
reflexión filosófica es también diferente en ambas disciplinas: mientras que la teoría del
conocimiento se ocupa de las condiciones y límites del conocimiento humano en general, la
filosofía de la ciencia analiza la estructura y el funcionamiento de esta forma muy particular de
conocimiento que es el conocimiento científico. La filosofía de la ciencia es fundamentalmente
una disciplina teórica de ''segundo orden" en relación con las ciencias existentes, es decir, una
"metaciencia". El objetivo de la filosofía de la ciencia es construir modelos (metacientíficos)
para elucidar lo que es esencial en los conceptos, teorías, métodos y relaciones mutuas que se
dan entre las ciencias establecidas. Y justamente en este sentido es, pura y claramente, una
disciplina ante todo filosófica. Un término casi sinónimo de "filosofía de la ciencia" en el
sentido en que la entiendo aquí es el más tradicional de "epistemología". Este término tiene
contornos semánticos más generales que, por lo regular, corresponden mejor a la teoría
general del conocimiento.
Una segunda advertencia concierne a los límites de las disciplinas que son el objeto estudiado
por la filosofía de la ciencia. Se trata de ciencias que se suelen llamar "empíricas" (física,
química, biología, psicología, economía, etc.) -es decir, disciplinas cuya validez depende,
aunque sea de
una manera muy indirecta, de aquello que llamamos "experiencia sensible"-. Utilizaré el
calificativo "empírico" para designar el conjunto de disciplinas de la naturaleza o de la
sociedad,
y excluiré las disciplinas puramente formales como la lógica o las matemáticas.
Una tercera advertencia tiene que ver con el grado de generalidad que pretenden tener las
doctrinas sobre las ciencias. Se trata de teorías generales sobre las ciencias (empíricas) o, lo
que es lo mismo, de teorías sobre las ciencias (empíricas) en general. En el transcurso del siglo
XX se llevaron a cabo un número considerable de investigaciones sumamente interesantes
sobre problemas lógico-metodológicos o epistemológicos de disciplinas científicas particulares.
Existe así no sólo una filosofía de la física, de la biología, de la economía, etc., sino incluso una
filosofía de la teoría especial de la relatividad, una filosofía de la mecánica cuántica, una
filosofía de la teoría de la evolución,… Es muy común distinguir la filosofía general de la ciencia
de la filosofía especial de las ciencias, es decir, de la filosofía de las ciencias particulares. No
obstante, los problemas y métodos de análisis de una y otra (aunque frecuentemente se hallen
en relación de influencia mutua) no son idénticos.

Una visión de conjunto

Los inicios institucionales

La filosofía de la ciencia nació prácticamente con el siglo XX; entre finales del siglo XIX y la
Primera Guerra Mundial. “Ciencias inductivas” se convierte en el término consagrado, durante
todo el siglo XIX y el primer cuarto del siglo XX, para el conjunto de las disciplinas reunidas hoy
dentro de la categoría de “ciencias empíricas”. Parecía evidente que el método que caracteriza
las ciencias de la naturaleza y de la sociedad es la inducción, por oposición a la deducción,
método específico de la lógica y de la matemática pura. Hoy en día no se habla más de
“ciencias inductivas”. Más tarde, en 1895, en la Universidad de Viena, se crea la cátedra
“Historia y teoría de las ciencias inductivas”. Esta cátedra fue creada para Ernst Mach. Cuando
March se retiró, la cátedra se le asignó a Ludwig Boltzmann y, posteriormente, en 1992, a
Moritz Schlick. Este último conformó un grupo de filósofos y científicos que en 1928 constituyó
la Asociación Ernst Mach, la cual a su vez devino el “escaparate institucional” del famoso
Círculo de Viena, decisivo en la constitución del perfil de la filosofía de la ciencia en el siglo XX.

“Prehistoria” y “protohistoria”

Desde el momento en que una ciencia se constituye como disciplina autónoma en relación con
la filosofía (por ejemplo; en la Antigüedad griega, la geometría y la astronomía), los filósofos
inician una reflexión filosófica de "segundo orden" sobre esta disciplina, es decir, una reflexión
metodológica y metateórica. Aristóteles puede ser considerado el primer filósofo de la ciencia
en un sentido próximo al que le damos hoy. A él particularmente le debemos la idea de
sistema axiomático como ideal de toda construcción de una teoría científica. Luego, la filosofía
trascendental kantiana, en particular en lo concerniente a las tesis presentadas en la Crítica de
la razón pura (1781) y en los Primeros principios metafísicos de la ciencia natural (1786), marca
una etapa importante en lo que podemos llamar la "protohistoria" de nuestra disciplina. El
pensamiento kantiano ha influido fuertemente en las discusiones filosófico-científicas hasta
mediados del siglo XX. El enfoque kantiano se puede interpretar como un primer ejemplo de
metateoría sistemática, es decir, como la construcción de un "modelo", en el sentido moderno,
de la estructura conceptual de las teorías científicas. Kant toma como objeto de reflexión dos
teorías ya bien establecidas en su tiempo (la geometría euclídea y la mecánica newtoniana), y
se pregunta qué estructura conceptual subyacente podría explicar por qué estas dos teorías, a
pesar de ser tan "abstractas", ofrecen un conocimiento preciso y eficaz de la realidad empírica.
La concepción general kantiana de los juicios sintéticos a priori, de las categorías y de las
formas puras de la intuición (espacio y tiempo) puede interpretarse como una metateoría
general de las teorías de las ciencias empíricas matematizadas (representadas por lo que hoy
llamamos la geometría física y la mecánica clásica). Estos elementos a la vez sintéticos (es decir,
con un contenido sustancial) y a priori (es decir, independientes de la experiencia) nos
permiten comprender por qué la matematización de las ciencias de la naturaleza nos da un
conocimiento cierto y exacto de la realidad empírica. Raros son los filósofos de la ciencia que
aún hoy aceptan el conjunto de la metateoría kantiana. Sin embargo, Kant estableció las bases
de la discusión sobre muchos temas centrales de la filosofía de la ciencia, tales como la función
de las matemáticas en las ciencias empíricas, la naturaleza de las leyes científicas, el valor del
principio de causalidad o aun la esencia del espacio y del tiempo. Muy particularmente, la
doble distinción kantiana analítico/sintético y a priori/a posteriori, igual que la existencia de
elementos sintéticos a priori en nuestro conocimiento científico.
De los filósofos del idealismo alemán posteriores a Kant, su objetivo, sobre todo en el caso de
Hegel y Schelling, fue más bien construir una filosofía de la naturaleza, es decir, una
especulación directa (de "primer orden") sobre la realidad empírica, basada en sus respectivos
sistemas metafísicos. Se podría interpretar la "filosofía de la naturaleza" de Schelling y Hegel
como intentos de proponer programas de investigación alternativos a los que habían
constituido las ciencias a partir de la "revolución científica" del siglo XVII. Tras el paréntesis del
idealismo alemán, Auguste Comte (Francia, 1798-1852), fundador del positivismo, da un nuevo
impulso a la filosofía de la ciencia como reflexión de "segundo orden" sobre las ciencias
establecidas durante el segundo cuarto del siglo XIX. Comte construyó un sistema clasificatorio
y jerárquico de las ciencias desde una perspectiva sincrónica y diacrónica a la vez, que le
permite explicar su desarrollo y formular, por así decirlo, unas "normas de la buena conducta
científica". También en Inglaterra se había desarrollado un interés particular por las cuestiones
metodológicas de las ciencias naturales hacia la mitad del siglo XIX. Los tres pensadores más
característicos en este sentido son sin duda John Herschel (1792-1871), William Whewell
(1794-1866) y John Stuart Mill (1806-1873). Al igual que Comte, no querían dar paso a la
metafísica especulativa y se guiaban más por las ciencias naturales establecidas en su tiempo.
Al contrario de Comte, no se interesaron por la cuestión de la clasificación sistemática de las
ciencias, sino más bien por la fundamentación de una metodología general del conocimiento
empírico. Es común para los tres autores el lugar central que ocupa en sus reflexiones el
concepto de inducción como método fundamental de la investigación empírica. Sin embargo,
en su caso, la inducción no representa -como en la tradición filosófica precedente- un sistema
de reglas formales de inferencia que supuestamente debieran permitir derivar regularidades
generales a partir de observaciones particulares, sino la construcción de hipótesis rivales sobre
un determinado campo de investigación, que deben ser contrastadas de diversas maneras con
la experiencia. A nivel más sistemático, Mill intentó identificar y formular lo más exactamente
posible los diferentes métodos inductivos de apoyo de hipótesis. Mill pretendió que, en
condiciones especialmente favorables, debía ser posible alcanzar los fundamentos
absolutamente seguros de las ciencias empíricas (como la física) a través de la aplicación
sistemática de los métodos inductivos explicitados por él. Por el contrario, Whewell se
mantuvo escéptico frente a esta posibilidad; según él, no se puede afirmar -por principio- la
verdad definitiva de las hipótesis empíricas. En este sentido, el falibilismo de Whewell está más
cerca que Mili del desarrollo de la filosofía de la ciencia del siglo XX. Sea a causa del idealismo
alemán, del positivismo francés o del inductivismo británico, el caso es que el pensamiento de
Kant en relación con los fundamentos de las ciencias naturales quedó al margen durante la
mayor parte del siglo XIX. Esto se debió no sólo a la evolución interna de la filosofía, sino quizá
todavía más al hecho de que el desarrollo enorme que las ciencias empíricas experimentaron a
lo largo del siglo XIX se produjo de un modo completamente independiente de las cuestiones
sobre el fundamento del conocimiento científico que Kant había planteado. Además, ciertos
resultados científicos obtenidos durante este periodo, en particular el auge de las geometrías
no euclídeas hacia la mitad del siglo, aparecían como una refutación definitiva de la idea
kantiana de la existencia de un elemento sintético a priori en los fundamentos de las ciencias.
Los últimos años del siglo XIX y los primeros del siglo XX son testimonio de una verdadera
"resurrección" del interés por Kant, tanto en los medios estrictamente filosóficos como entre
los investigadores que se ocupan de los fundamentos de las ciencias. Es precisamente en este
periodo que la filosofía de la ciencia se comienza a perfilar como una disciplina autónoma. Sin
duda, entre los "filósofos puros" de este periodo hay que mencionar la escuela de los
neokantianos y, particularmente en lo que concierne a la reflexión sobre las ciencias naturales,
a Ernst Cassirer (Alemania, 1874-1945). El papel primordial en la construcción de nuestra
disciplina corrió a cargo de una serie de científicos de orientación filosófica que, aun siendo
críticos con respecto a las tesis kantianas, supieron reemprender las cuestiones planteadas por
Kant, de una forma directa, o a través de la lectura de las reflexiones de orden kantiano
realizadas por otros autores de la generación inmediatamente precedente, siendo Helmholtz el
primero de ellos.

Las cinco fases del desarrollo

En el desarrollo de la filosofía de la ciencia desde los últimos años del siglo XIX hasta el fin del
siglo XX, se pueden distinguir cinco grandes fases. La fase de germinación o de preformación
(de 1890 aproximadamente hasta el fin de la Primera Guerra Mundial) está caracterizada
principalmente por reflexiones epistemológicas y metodológicas de ciertos científicos (físicos y
fisiólogos) y de algunos filósofos dotados de conocimientos científicos sólidos, así como por
influencias más o menos directas de Kant y de la fisiología de los sentidos del siglo XIX. El
empiriocriticismo y el convencionalismo representan las corrientes más destacadas de esta
fase. El interés por la historia de la ciencia no es insignificante, pero tampoco decisivo. La fase
de eclosión (1918-1935) se define por la irrupción intensa y generalizada de métodos de
análisis formal (lógica formal, axiomática hilbertiana, teoría de conjuntos) y por la vinculación
con los problemas de los fundamentos de la matemática, así como por una clara voluntad de
ruptura con las tradiciones epistemológicas precedentes y una postura polémica contra toda
forma de metafísica. Se considera que el proyecto kantiano tiene que abandonarse
definitivamente. Es la época del positivismo y empirismo lógicos, del operacionalismo y de
otras corrientes afines.
La fase clásica (aproximadamente de 1935 a 1970) presenta básicamente una continuidad, al
menos temática y metodológica, con respecto a la fase precedente; sin embargo, es al mismo
tiempo más autocrítica y más "serena". Aporta asimismo numerosos y sólidos resultados
formales (aunque a menudo negativos), y favorece los estudios de detalle a veces
extremadamente técnicos. No podemos hablar aquí de una escuela dominante, sino más bien
de una "familia" con un aire vagamente empirista en un sentido bastante amplio (que debería
incluir el "racionalismo crítico" y la concepción hipotéticodeductiva del método científico).
Durante esta fase la filosofía de la ciencia se consolida definitivamente como disciplina. Los
filósofos de la ciencia que vinieron después se refieren a ella como una “concepción heredada”.
La fase historicista (aproximadamente de 1960 a 1985) explícitamente se opone en su totalidad
a los presupuestos de contenido y de método de las fases anteriores, y subraya al mismo
tiempo la importancia capital de la historia de la ciencia para una filosofía "realista" de la
ciencia. Asimismo, esta fase ignora e incluso niega abiertamente la utilidad de los métodos de
análisis formal. El empirismo lógico y el racionalismo crítico se arrojan al "vertedero de la
historia". Otro aspecto de esta fase es una fuerte tendencia al relativismo epistémico y al
sociologismo en lo que concierne a los fundamentos del conocimiento científico. A partir de
1970, la fase modelista aporta una mirada bastante crítica sobre los presupuestos de las fases
segunda y tercera, aunque sin el carácter polémico de la cuarta, y sin rechazar en bloque la
utilidad, en algunos contextos, de instrumentos formales de análisis. Más aún que en las fases
precedentes es difícil hablar en este caso de una corriente única. Se pueden señalar dos
"denominadores comunes": un giro "antilingüístico" en relación con las corrientes precedentes,
que privilegia la noción de modelo frente a la de proposición como unidad básica del
conocimiento científico, y el papel central desempeñado por las reconstrucciones, lo más
detalladas posible, de teorías científicas concretas. Resulta sintomático que esta fase vea el
surgimiento de lo que se ha dado en llamar la "filosofía especial de la ciencia" -filosofía de la
física, de la biología, de la economía, etc-. Sin embargo, también encontramos algunos
enfoques relativamente sistemáticos alimentados por ambiciones generalizadoras, siendo
probablemente los más significativos el estructuralismo (metateórico) y el empirismo
constructivo.
Klimovsky, G. – Las desventuras del conocimiento científico: introducción a la epistemología

El concepto de la ciencia

Ciencia, conocimiento y método científico

La ciencia es fundamentalmente un acopio de conocimiento, que utilizamos para comprender


el mundo y modificarlo. Tratemos entonces de poner en claro qué entendemos por
conocimiento. Cuando se formula una afirmación y se piensa que ella expresa conocimiento,
¿qué condiciones debe cumplir? Según lo expone Platón en su diálogo Teetetos, tres son los
requisitos que se le deben exigir para que se pueda hablar de conocimiento: creencia, verdad y
prueba. En primer lugar, quien formula la afirmación debe creer en ella. Segundo, el
conocimiento expresado debe ser verdadero. Tercero, deberá haber pruebas de este
conocimiento. En la actualidad, ninguno de los tres requisitos se considera apropiado para
definir el conocimiento científico. La concepción moderna de éste es más modesta y menos
tajante que la platónica, y el término "prueba" se utiliza para designar elementos de juicio
destinados a garantizar que una hipótesis o una teoría científicas son adecuadas o satisfactorias
de acuerdo con ciertos criterios. Ya no exigimos del conocimiento una dependencia estricta
entre prueba y verdad. Sería posible que hubiésemos "probado suficientemente" una teoría
científica sin haber establecido su verdad de manera concluyente, y por tanto no debe extrañar
que una teoría aceptada en cierto momento histórico sea desechada más adelante. En el
mismo sentido debemos señalar que hoy en día la noción de prueba no está indisolublemente
ligada al tipo de convicción o adhesión llamada "creencia". Muchos físicos actuales emplean la
teoría llamada mecánica cuántica por su eficacia explicativa y predictiva, pero la entienden a la
manera de un instrumento de cálculo y no creen que ella ofrezca conocimiento alguno de la
realidad. Las hipótesis y teorías científicas se formulan en principio de modo tentativo, por lo
cual la indagación en búsqueda de pruebas no supone una creencia intrínseca en aquéllas.
Según algunos epistemólogos, lo que resulta característico del conocimiento que brinda la
ciencia es el llamado método científico, un procedimiento que permite obtenerlo y también, a
la vez, justificarlo. Pero, hablar de el método científico es referirse en realidad a un vasto
conjunto de tácticas empleadas para constituir el conocimiento.

Disciplinas y teorías científicas

Cuando se habla de ciencia, para iniciar y llevar adelante una discusión es necesario adoptar
determinada unidad de análisis (entre las que se destacará la noción de teoría). Conviene
pensar en la ciencia en estrecha vinculación con el método y con los resultados que se
obtienen a partir de él. Ello permite distinguir a la ciencia de la filosofía, el arte y otros campos
de la cultura humana. Sin embargo, hay una unidad de análisis más tradicional, la disciplina
científica, que pone el énfasis en los objetos en estudio y a partir de la cual podríamos hablar
de ciencias particulares: la física, la química, la sociología. Aristóteles, por ejemplo, habla de
disciplinas demostrativas (las que usan el método demostrativo) y caracteriza cada una de ellas
según el género de objetos que se propone investigar. La física, por ejemplo, podríamos afirmar
que se trata de cuerpos o entidades que se hallan en el espacio y el tiempo reales. La
geometría se ocuparía de figuras, la biología de seres vivos y la psicología de cuerpos que
manifiestan conducta o psiquismo. Pero, los objetos de estudio de una disciplina cambian a
medida que lo hacen las teorías científicas; ciertos puntos de vista son abandonados o bien, en
otro momento de la historia de la ciencia, pueden ser readmitidos. En lugar de pensar en
disciplinas preferimos pensar en problemas básicos que orientan distintas líneas de
investigación. Lo cual nos lleva a considerar una nueva unidad de análisis, la teoría científica.
Una teoría científica, en principio, es un conjunto de conjeturas, simples o complejas, acerca
del modo en que se comporta algún sector de la realidad. En ciencia, problemas y teorías van
de la mano. Por todo ello la teoría es la unidad de análisis fundamental del pensamiento
científico contemporáneo.

Lenguaje y verdad

A propósito del conocimiento, hemos dicho que éste se expresa por medio de afirmaciones,
con lo cual tomamos partido en favor de una aproximación lingüística a la cuestión. No es la
única. En su análisis de la ciencia, ciertos filósofos ponen el énfasis en lo que conciben como un
determinado modo de pensamiento, especialmente privilegiado: el pensamiento científico.
Pero el pensamiento es privativo de quien lo crea, y sólo se transforma en propiedad social si
se lo comunica a través del lenguaje. El enfoque del fenómeno científico es lingüístico, sobre
todo en relación con el examen de sus productos, por cuanto socialmente la ciencia como
cuerpo de conocimientos se ofrece bajo la forma de sistemas de afirmaciones. Ello se
corresponde con una tendencia característica de este momento de la historia de la cultura,
como es la de privilegiar el papel del lenguaje en el análisis del arte, de las sociedades o del
hombre, y también en los campos de la lógica, la matemática o la teoría del conocimiento. Por
tanto cuando tratemos acerca de conjeturas o teorías científicas debemos entenderlas como
propuestas, creencias u opiniones previamente expresadas por medio del lenguaje.
Cuando nos referíamos a la concepción platónica del conocimiento empleamos la palabra
"verdad". En ciencia la verdad y la falsedad se aplican a las afirmaciones o enunciados, y no,
por ejemplo, a los términos. Tiene sentido decir que "El cielo es azul" es verdadero o falso, mas
no lo tiene decir que cielo o azul lo sean. Platón exigía, como ya señalamos, que para que un
enunciado exprese conocimiento debe ser verdadero. Sin embargo, una teoría científica puede
expresar conocimiento y su verdad no estar suficientemente probada. Dado que el problema
radica en la esquiva significación de la palabra "verdad", tendremos que aclarar en qué sentido
la utilizaremos. No hay obligación, legal o moral, de emplear la palabra de uno u otro modo. En
el lenguaje ordinario la palabra "verdad" se emplea con sentidos diversos. Por un lado, indicar
un tipo de correspondencia entre la estructura que atribuimos a la realidad en nuestro
pensamiento y la que realmente existe en el universo. Pero a veces parece estar estrechamente
ligada a la idea de conocimiento: decimos, en medio de una discusión, "esto es verdad" o "esto
es verdadero" para significar que algo está probado. En otras ocasiones, curiosamente,
"verdad" se utiliza no en relación a la prueba sino a la creencia. Decimos: "Ésta es tu verdad,
pero no la mía", con lo cual estamos cotejando nuestras opiniones con las del interlocutor. La
primera acepción es en principio la que resulta de mayor utilidad. Proviene de Aristóteles,
quien la presenta en su libro Metafísica, y por ello se la llama "concepto aristotélico de
verdad". Se funda en el vínculo que existe entre nuestro pensamiento, expresado a través del
lenguaje, y lo que ocurre fuera del lenguaje, en la realidad. Aristóteles se refiere a esta relación
como "adecuación" o "correspondencia" entre pensamiento y realidad. De allí que a la noción
aristotélica se la denomine también "concepción semántica" de la verdad, pues la semántica se
ocupa de las relaciones del lenguaje con la realidad, que está más allá del lenguaje. La acepción
aristotélica nos resultará muy conveniente para comprender qué es lo que hay detrás de
ciertas formulaciones del método científico y en particular del llamado método hipotético
deductivo. Sin embargo, en el ámbito de ciencias formales como la matemática, hay un
importante sentido de la palabra "verdad": decir, por ejemplo, que una proposición
matemática es verdadera significa que es deductible a partir de ciertos enunciados de partida,
fijados arbitrariamente.
En el papel de la ciencia entendida como conocimiento de hechos, en tal sentido la
matemática, al igual que la lógica, será considerada como una herramienta colateral que sirve a
los propósitos de las ciencias fácticas, cuyo objetivo es, precisamente, el conocimiento de los
hechos. Un hecho es la manera en que las cosas o entidades se configuran en la realidad, en
instantes y lugares determinados. Será un hecho, por tanto, el que un objeto tenga un color o
una forma dadas, que dos o tres objetos posean determinado vínculo entre sí o que exista una
regularidad en acontecimientos de cierta naturaleza. En los dos primeros casos hablaremos de
hechos singulares, pero al tercero lo consideraremos un hecho general. Cuando una afirmación
que se refiere a la realidad resulta verdadera, es porque describe un posible estado de cosas
que es en efecto un hecho. Son ciencias fácticas tanto la física o la biología como la psicología,
la sociología o la economía, porque éstas pretenden dar cuenta de hechos que se manifiestan,
en cada caso, en un determinado sector de la realidad. En el ámbito de las ciencias fácticas, el
concepto aristotélico de verdad parece indispensable. Por las reglas gramaticales, semánticas y
lógicas del lenguaje, quien realiza el acto pragmático de afirmar un enunciado pretende
describir un posible estado de cosas y al mismo tiempo persuadirnos de que ello es lo que
acontece en la realidad. Si dicho estado de cosas realmente acaece, si la descripción coincide
con lo que sucede en la realidad, diremos que el enunciado es verdadero. La afirmación "En el
tejado hay un gato" es verdadera si, y sólo si, en el tejado hay un gato. Por el momento los
asimilaremos a lo que los gramáticos llaman oraciones declarativas, utilizadas precisamente
con el propósito de comunicar que las cosas tienen ciertas cualidades, guardan entre sí ciertas
relaciones o presen
tan ciertas configuraciones. En nuestro siglo, el lógico polaconorteamericano Alfred Tarski,
logró una reelaboración de la concepción semántica de Aristóteles, según la cual la verdad
consiste en una relación positiva e íntima entre lenguaje y realidad.
La noción aristotélica de verdad no tiene ingrediente alguno vinculado con el conocimiento.
Una afirmación puede ser verdadera sin que nosotros lo sepamos, es decir, sin que tengamos
evidencia de que hay correspondencia entre lo que describe la afirmación y lo que realmente
ocurre. También podría ser falsa, y nosotros no saberlo. "Hay otros planetas habitados en el
universo" es un enunciado o bien verdadero o bien falso, pero en el estado actual de nuestro
conocimiento no podemos decidir acerca de su verdad o falsedad. Por ejemplo, quien formula
una hipótesis no sabe si lo que ella describe se corresponde o no con los hechos. La hipótesis
es una conjetura, una afirmación cuyo carácter hipotético radica en que se la propone sin
conocimiento previo de su verdad o falsedad. Uno de los problemas que plantea la
investigación
científica es el de decidir con qué procedimientos, si es que los hay, podemos establecer la
verdad o la falsedad de una hipótesis. Desde el punto de vista del avance del conocimiento
científico, puede ser tan importante establecer una verdad como una falsedad, es decir, la
ausencia de correspondencia entre lo que se describe y lo que realmente acontece. En la
historia de la ciencia hay muchos ejemplos de hipótesis falsas que sobrevivieron durante largo
tiempo hasta que se logró probar su falsedad.
En síntesis: es necesario discriminar entre la verdad y el conocimiento de la verdad, entre la
falsedad y el conocimiento de la falsedad. La operación de establecer si una afirmación es
verdadera o falsa pertenece al ámbito del conocimiento y es posterior a la comprensión del
significado atribuido a los términos "verdad" y "falsedad". Quien toma una fotografía no sabe
de inmediato si se corresponde o no con el objeto fotografiado, es decir, si es nítida o está
distorsionada. Lo sabrá luego de que sea revelada. Pero la fotografía ya será nítida o
distorsionada antes de que el fotógrafo conozca el resultado de esa operación y pueda
asegurar que ha tomado una buena o una mala fotografía.

Verificación y refutación

La palabra "verdad" utilizada a la manera aristotélica no debe suponer entonces cuestiones


relativas al conocimiento. Pero hay un uso cotidiano según el cual "verdadero" sería
equivalente a "conocido como verdadero" o "probado que las cosas son tal como se afirma".
Para evitar el riesgo de malentendidos tendremos que recurrir a palabras más adecuadas para
señalar que se ha probado la verdad o la falsedad de un enunciado. Son verificado y refutado.
Un enunciado verificado es aquel cuya verdad ha sido probada. Si queremos decir que se ha
establecido su falsedad diremos que el enunciado está refutado. Los términos "verificado" y
"refutado" se refieren a nuestro conocimiento de la verdad o falsedad de una afirmación. Si
una afirmación está verificada, entonces necesariamente es verdadera, aunque otra afirmación
puede ser verdadera sin estar verificada. Asimismo, una afirmación refutada necesariamente
es falsa, pero otra puede ser falsa sin que haya sido refutada.
Los partidarios de la lógica inductiva y los estadísticos suelen emplear la palabra confirmación.
Hablan de afirmaciones, creencias, hipótesis o teorías confirmadas. Generalmente, lo que se
quiere decir con esto es que podemos depositar en ellas un elevado grado de confianza (por
ejemplo, debido a que, luego de ser sometidas a ciertos procedimientos inductivos o
estadísticos, evidencian una alta probabilidad). En caso contrario se hablará de
disconfirmación. Pero algunos epistemólogos, entre ellos Karl Popper, no tienen mucha
simpatía por el inductivismo y los métodos estadísticos, y entonces utilizan otra palabra,
"corroboración", para indicar que una creencia o una teoría han resistido con éxito
determinados intentos de derribarlas y por consiguiente "han mostrado su temple". La
corroboración supone tan sólo haber fracasado al tratar de descartarlas.

Filosofía de la ciencia, epistemología, metodología

Epistemología: muchos autores franceses e ingleses la utilizan para designar lo que en nuestro
medio se llama "teoría del conocimiento" o "gnoseología", es decir, un sector de la filosofía
que examina el problema del conocimiento en general: el ordinario, el filosófico, el científico,
etc. Pero en este libro el término "epistemología" será empleado en un sentido más
restringido, referido exclusivamente a los problemas del conocimiento científico, tales como las
circunstancias históricas, psicológicas y sociológicas que llevan a su obtención, y los criterios
con los cuales se lo justifica o invalida. La epistemología sería, entonces, el estudio de las
condiciones de producción y de validación del conocimiento científico.
El epistemólogo se formula una pregunta de crucial importancia para comprender y analizar la
significación cultural de la ciencia en la actualidad: por qué debemos creer en aquello que
afirman los científicos. No acepta sin critica el conocimiento científico, sino que lo examina del
modo más objetivo posible. Al igual que un filósofo, frente a cualquier teoría y con
independencia de que esté apoyada por la tradición o sea muy reciente, se preguntará por su
aparición como fenómeno histórico, social o psicológico, por qué hay que considerarla como
buena o mala, o cuáles son los criterios para decidir si una teoría es mejor o peor que otra. La
epismología es por ello una actividad critica que se dirige hacia todo el campo de la ciencia.
Estrechamente vinculada a la epistemología se halla la filosofía de la ciencia. Sin embargo, la
filosofía de la ciencia, como la filosofía en general, abarca muchos problemas que no son
estrictamente epistemológicos. Un problema filosófico sería, por ejemplo, tratar de decidir si la
realidad objetiva existe o es una ilusión de los sentíos; en este ámbito, el filósofo de la ciencia
puede interesarse por la cuestión de si la física, por ejemplo, presupone una metafísica peculiar
que afirme la existencia de una realidad externa a la subjetiva. Pero éste no es un problema
central para la epistemología. Se puede sostener que los criterios de validación de una teoría
no son necesariamente dependientes de criterios metafísicos. Es asunto de controversia. Los
presupuestos filosóficos que existen en la ciencia influirían de un modo esencial en la adopción
de éste o aquel criterio epistemológico. De manera que el término "filosofía de la ciencia'' es
más amplio que el término "epistemología", y ésta sería tal vez una disciplina independiente de
aquélla, si bien las conexiones entre ambas y las presuposiciones epistemológicas constituyen
de por sí asunto del mayor interés filosófico. Una tercera palabra que suele compartir un
mismo discurso con el término 'epistemología" es "metodología". En general, y a diferencia de
lo que sucede con el epistemólogo, el metodólogo no pone en tela de juicio el conocimiento ya
obtenido y aceptado por la comunidad científica. Su problema es la búsqueda de estrategias
para incrementar el conocimiento. Por ejemplo, está fuera de discusión para el metodólogo la
importancia de la estadística, pues ésta constituye un camino posible para obtener, a partir de
datos y muestras, nuevas hipótesis. En cambio, el epistemólogo podría formularse, a modo de
problema, la pregunta por el pretendido valor atribuido a los datos y muestras. Epistemología y
metodología abordan distintos ámbitos de problemas, aunque es obvio que el metodólogo
debe
utilizar recursos epistemológicos pues, si su interés radica en la obtención de nuevos
conocimientos, debe poseer criterios para evaluar si lo obtenido es genuino o no lo es, ya que
no podría ser adepto a una táctica que lo llevara a tener por válido un "conocimiento
equivocado". La metodología, en cierto modo, es posterior a la epistemología. Sin embargo, y
tal como sucede con la relación entre ciencia y tecnología, a veces un procedimiento
metodológico se descubre casualmente, se emplea por razones de heurística y entonces el
epistemólogo se ve en la necesidad de justificarlo en términos de su propio ámbito de estudio.

Contextos

Acerca de los diferentes sectores y temáticas en los que transcurren la discusión y el análisis de
carácter epistemológico. Hans Reichenbach, en su libro Experiencia y Predicción, discrimina
entre lo que llama contexto de descubrimiento y contexto de justificación. En el contexto de
descubrimiento importa la producción de una hipótesis o de una teoría, el hallazgo y la
formulación de una idea, la invención de un concepto, todo ello relacionado con circunstancias
personales, psicológicas, sociológicas, políticas y hasta económicas o tecnológicas que
pudiesen haber gravitado en la gestación del descubrimiento o influido en su aparición. A ello
se opondría por contraste el contexto de justificación, que aborda cuestiones de validación:
cómo saber si el descubrimiento realizado es auténtico o no, si la creencia es verdadera falsa, si
una teoría es justificable, si las evidencias apoyan nuestras afirmaciones o si realmente se ha
incrementado el conocimiento disponible. El contexto de descubrimiento estaría relacionado
con el campo de la psicología y de la sociología, en tanto que el de justificación se vincularla
con la teoría del conocimiento y en particular con la lógica. Sin embargo, habría estrechas
conexiones entre el problema de la justificación de una teoría (y de sus cualidades lógicas) y la
manera en que se la ha construido en la oportunidad en que ella surgió. En particular, tal es la
opinión de Thomas Kuhn. A su entender los criterios de aceptación de una teoría deben
basarse en factores tales como el consenso de una comunidad científica, de lo cual resultaría
que los procedimientos mediante los cuales se obtiene, se discute y se acepta el conocimiento
resultan de una intrincada mezcla de aspectos no sólo lógicos y empíricos sino más bien
ideológicos, psicológicos y sociológicos. En tal sentido, Kuhn interpreta que la separación entre
contextos seria artificial y daría una visión unilateral y distorsionada de la investigación
científica. Sin embargo, la distinción de Reichenbach es aún válida y útil.
A los dos contextos que menciona Reichenbach se agrega un tercero, el contexto de aplicación,
en el que se discuten las aplicaciones del conocimiento científico, utilidad, su beneficio o
perjuicio para la comunidad o la especie humanas. Se trata de un conjunto de cuestiones que
incluso tienen pertinencia para comprender los problemas propios de los contextos de
descubrimiento y de justificación. El uso crítico de una teoría, en tecnología o en otras
aplicaciones, tiene alguna conexión con los criterios para decidir si ella es adecuada o no desde
el punto de vista del conocimiento. En general, las discusiones epistemológicas (y en ciertos
casos también metodológicas) pueden llevarse a cabo en cualquiera de los tres contextos, lo
cual motiva el problema de analizar la eventual relación entre ellos. Daremos preferencia a las
cuestiones que atañen al contexto de justificación. Nuestra preopación principal será la de
indagar acerca de los elementos de juicio por los cuales una determinada teoría científica
merece ser considerada como conocimiento legítimo, de los criterios que permiten decidir por
una teoría en favor de otras y, en general, de justificar la racionalidad del cambio científico.

La base empírica de la ciencia

Base empírica y zona teórica

El origen de la distinción entre objetos y entidades empíricas, por una parte, y objetos y
entidades teóricas, por otra, se funda en lo siguiente: la ciencia no es un mero discurso, sino
que, debido a las propiedades semánticas del lenguaje ordinario y aun del lenguaje científico,
intenta ocuparse de objetos, de cosas, de entidades, de justificar nuestras creencias acerca de
ellos y de encontrar incluso regularidades (leyes naturales) que las involucran. Nuestro
conocimiento de algunos de estos objetos es directo, en el sentido de que no exige ninguna
mediatización de instrumentos o teorías para que podamos tener conocimiento de ellos. Se
ofrecen directamente a la experiencia y por tanto podrían denominarse provisoriamente
objetos directos. Un ejemplo característico, si al contemplar un instrumento que posee un dial
observamos que la aguja coincide con una marca de la escala, entonces el dial, la aguja, la
marca y la relación de coincidencia pueden considerarse como entidades directas, por cuanto
se ofrecen sin mediación a nuestra captación, a nuestro conocimiento.
Claro que no todo objeto del cual se ocupa la ciencia se halla en estas condiciones. Ni los
átomos, ni el inconsciente, ni la estructura del lenguaje ni los genes poseen esta cualidad. Para
acceder al conocimiento de estas entidades es necesario proceder indirectamente y justificar
nuestra creencia en ellas y en nuestro modo de conocerlas. Estamos tratando con objetos
indirectos. Esta distinción entre objetos directos e indirectos tendrá consecuencias tanto
epistemológicas como metodológicas, porque se comprende que la edificación y justificación
del conocimiento no serán análogas en uno u otro caso. De hecho, la captación de entidades
no es un fenómeno de nuestra conducta que se ofrezca a nuestro conocimiento sin el auxilio
de algunos dispositivos, entre los cuales el principal con que contamos es el lenguaje ordinario.
Los términos y vocabularios de éste nos permiten una primera conceptuación de la realidad.
La experiencia se nos ofrece como una red muy compleja de elementos, un continuo que hay
que dividir y articular para poder concebirlo y operar con él. Esto se hace con auxilio del
lenguaje y en general con todo nuestro aparato de pensamiento. Cuando hablamos de objetos
directos hay que entender que su captación acontece con el auxilio de un aparato semántico
sin el cual no siempre los objetos que captamos serían los mismos. Un esquimal trasplantado
de pronto a una ciudad e instalado en una casa moderna no percibiría como objeto directo la
biblioteca, como sí lo hacemos nosotros. Por tanto, hay cierto relativismo y un componente
cultural en lo que denominamos un objeto directo, pero la actividad científica se origina en una
sociedad, en un momento histórico, en un determinado contexto, y al hacerlo de esta manera
dispone de un marco lingüístico y conceptual determinado.
Supondremos que los objetos directos constituyen un conjunto potencialmente análogo para
todos los centros culturales que puedan plantearse problemas epistemológicos, y llamaremos
base empírica al conjunto de los objetos que potencialmente pueden ser conocidos
directamente. Los demás objetos, acerca de los cuales no negamos que podemos adquirir
conocimiento pero que exigen estrategias indirectas y mediatizadoras para su captación,
constituirán lo que llamaremos zona teórica de las disciplinas o de las teorías científicas.
Cuando un objeto, entidad o situación en la base empírica es conocida, suele decirse que
contamos con un dato. En otro sentido, la captación de un objeto directo puede también
denominarse una observación. Como señala el epistemólogo Ernest Hagel, hay observaciones
espontáneas que pueden interesar mucho al científico, pero que no han sido provocadas por
él, y que se ofrecen porque de pronto, quizás inesperadamente, los sucesos ocurren en la
realidad de cierta manera. Cuando aparece una nova en el cielo, lo directo es su aspecto
fulgurante; la atención se dirige hacia el fenómeno por su intrínseco interés, pero aquél no ha
sido provocado por nosotros. En otros casos los datos no han sido provocados pero ha habido
una búsqueda de ellos, y en aquellas disciplinas en las que hay un número superabundante de
datos es necesario realizar una serie de maniobras epistemológicas y metodológicas de control
y sistematización de acuerdo con ciertas normas que impone el método científico. Por ejemplo,
las estrellas visibles a ojo desnudo o a través de instrumentos, como para efectuar estudios
estadísticos. De cualquier manera, los datos constituyen en este caso parte de la base empírica.
Finalmente, cuando la observación puede ser provocada, y hablamos de experimento, la
situación en cuanto a control y sistematización se hace por cierto mucho mejor, pero éste no es
un requisito indispensable ni una condición necesaria para la aplicación del método científico.
Sea como fuere, observación espontánea, observación controlada y experimento son todos
aspectos de nuestro conocimiento de la base empírica. Algunos de estos conceptos pueden
extenderse también a la zona teórica.
Ciertos ejemplos pueden ilustrar lo que estamos diciendo a propósito de la base empírica y la
zona teórica. Consideremos el caso de la física. Sin duda, cuando analizamos los temas de los
que se ocupa un físico advertimos que se mencionan cosas tales como balanzas, el fiel de la
balanza, la aguja, el dial, y se habla de pesas, objetos cotidianos en reposo o movimiento,
etcétera, los que en determinadas condiciones corresponden sin duda a la base empírica. Pero
se habla también de campos eléctricos o de partículas elementales, entidades que no se
conocían hasta épocas muy recientes en la historia de la ciencia, es decir, hasta la aparición de
ciertas teorías científicas o de instrumentos apropiados. No cabe duda de que los campos
eléctricos y las partículas elementales no son observables, es decir accesibles a la inspección
directa, y por lo tanto corresponden a la zona teórica de la ciencia. Una situación totalmente
análoga se presenta en química: los tubos de ensayo, los mecheros o el papel de tornasol son
directamente observables y corresponderían a la base empírica, pero no ocurre lo mismo
cuando se habla de átomos, de valencias de pesos atómicos o de estructura atómicomolecular.
En el caso de la biología una distinción análoga es la que existe entre fenotipo y genotipo: en la
mayoría de los casos el fenotipo se refiere a una característica observable de los seres vivos
(plumaje de un pájaro, color de una fruta, textura de una semilla); pero el genotipo hace
referencia a los genes, a los alelos, a los cromosomas, y cuando hablamos de ellos sin
presuponer el auxilio de instrumentos estamos tratando con entidades de la zona teórica. En el
ámbito de la lingüística, la distinción que formula de Saussure entre la lengua y el habla
corresponde también a un enfoque semejante. La lengua es un aspecto teórico y conjeturado
del fenómeno lingüístico, en tanto que el habla, en relación con los fenómenos acústicos,
auditivos y la presencia de imágenes, se halla más directamente vinculada a la base empírica.
También en sociología podemos establecer la distinción. Las planillas con que la gente ha
respondido a una
encuesta serían sin duda elementos de la base empírica para la investigación que se ha
emprendido, pero hablar acerca de la anomia, el conflicto o el estado de violencia en el que se
encuentra una sociedad sería mencionar entidades de la zona teórica. En psicoanálisis,
incluimos en la base empírica a las actitudes corporales, a los gestos y a las expresiones
verbales, mientras que pertenecen a la zona teórica el superyó, el inconsciente o las fantasías.

¿Qué importancia tiene, realmente, la distinción entre objetos directos e indirectos, entre
observación directa y objeto inobservable? Desde el punto de vista epistemológico, por qué
creemos que una teoría es adecuada o inadecuada, mejor o peor que otra. Parecería que el
elemento de control es la concordancia o no de la teoría con observaciones de la base
empírica. Esta es una de sus funciones principales para el conocimiento. Pero la base empírica
se modifica a medida que transcurre la historia, debido al surgimiento de nuevos
procedimientos técnicos que nos permiten observar de distinta manera; por tanto, los
elementos de control para la ciencia se modifican consecuentemente y la historia de la base
empírica repercute también en la historia de las teorías científias. Otra cuestión es el distinto
grado de énfasis que se puede poner en los aspectos empíricos y teóricos de la ciencia. Desde
un punto de vista práctico o tecnológico, no cabe duda de que la base empírica es primordial y
la zona teórica circunstancial. Los problemas técnicos de la vida diaria están relacionados con la
base empírica, con los objetos que nos rodean y las situaciones cotidianas que ellos nos
presentan. Si algún interés depositamos en los objetos teóricos, es porque se relacionan con
teorías que, a su vez, nos permiten disponer de nuevos recursos tecnológicos para actuar y
resolver problemas cotidianos. Sin embargo, los grandes fenómenos que dan razón a las leyes
básicas explicativas de todo lo que ocurre en la realidad están ligados, sin duda, a objetos
teóricos tales como partículas elementales, campos, etcétera. En este sentido, el conocimiento
profundo se vincula con el aspecto teórico de la ciencia, y la observación resulta subsidiaria,
como elemento de control.

La base empírica filosófica

Tipos de base empírica: filosófica, epistemológica y metodológica. Supongamos que una


discusión acerca el conocimiento tuviera lugar en el ámbito de la filosofía. ¿Qué estaría en
juego? Sin duda todo el conocimiento humano. En tal caso deberíamos debatir cuestiones tales
como la justificación de nuestra creencia en un mundo exterior o la psiquis o en la existencia de
otras mentes. En una palabra, si en lugar de discutir temas epistemológicos discutiéramos
temas de teoría del conocimiento o gnoseología, como se la denomina en algunos círculos,
nuestra distinción se establecería entre aquello cuyo conocimiento no deja la menor duda y
aquello que, pese a que intuitivamente parece estar frente a nosotros, merecería una
justificación filosófica. Deberíamos fundamentar, por ejemplo, como exigen muchos filósofos,
nuestra creencia en que existen los objetos físicos. Si se denomina base empírica filosófica al
conjunto de todos los datos indubitables aun para los filósofos, se comprende que esta reunión
de objetos y entidades sería mucho más restringida que la que corresponde a la base empírica
de la ciencia. Los filósofos dudan de muchas más cosas que aquellas de las que dudan los
epistemólogos. Para ellos el tema es por qué tenemos que admitir una teoría científica desde
el punto de vista más o menos sensato del sentido común de nuestra actividad cotidiana y del
lenguaje.
No todos los filósofos comparten la convicción de que existe una base empírica filosófica, pues,
en general, tal tesitura es considerada fundamentalista. Si bien en algunas etapas de la historia
de la filosofía, especialmente en la época de auge del empirismo y del idealismo, se tomaban
entidades tales como la sensación y la percepción a modo de ejemplos de lo que constituiría
una base empírica filosófica, muchos filósofos pensaban que en realidad no hay datos seguros
en parte alguna del conocimiento. De acuerdo con estos críticos, el resultado de la actividad
filosófica se parece más a una descripción de las interacciones entre las distintas partes de la
realidad y de nuestros tipos de conocimiento, que a un edificio construido desde ciertos
cimientos hacia las alturas.

La base empírica epistemológica

En determinado momento de la historia, ciertas comunidades humanas comenzaron a


constituir la ciencia, a efectuar descubrimientos y a construir teorías. Indudablemente este
proceso se origina, como cualquier otro tipo de proceso de conocimiento, en el análisis de
fenómenos de la vida cotidiana y del comportamiento de los grupos sociales. En cierto sentido,
puede afirmarse que la ciencia es un fenómeno sociológico vinculado al desarrollo de la
historia. Pero cuando el proceso de constitución de la ciencia adquiere un carácter sistemático,
y ello acontece con singular energía a partir del siglo XVII, se advierte que el punto de partida
de los científicos son datos obtenidos de la experiencia cotidiana, a los que se trata de
reinterpretar y extender en términos que van más allá del conocimiento vulgar. Desde esta
perspectiva, los datos de la base empírica son aquellos que cualquier persona puede obtener
de la vida cotidiana con el auxilio del lenguaje ordinario, y que están por tanto provistos ya de
un suficiente poder de conceptuación básica. A partir de ellos, el científico tratará de formular
suposiciones que involucran entidades de la zona teórica y que permitan justificar nuestras
creencias y explicar las regularidades que hallamos en la vida cotidiana.
Estamos, pues, en presencia de un tipo de base empírica que ya no tiene un carácter filosófico
como la anterior y a la que llamaremos base empírica epistemológica. En ella se incluyen los
datos obtenidos en la vida cotidiana, y la zona teórica será, en este caso, todo aquello que la
discusión científica deberá justificar a través de inferencias o también usando las propiedades
de instrumentos y teorías de las que se vale para obtener conocimiento. La distinción entre
objetos directos e indirectos presupone la adopción de una base empírica epistemológica y no
filosófica. Esta base empírica antecede al uso de cualquier teoría científica, porque un
epistemólogo pone en duda todas las teorías científicas y analiza críticamente los
procedimientos de validación o justificación de las mismas.
Hablaremos de marcos y presupuestos teóricos para referimos a las teorías ya admitidas por el
investigador y que son tácitamente utilizadas como auxiliares de la investigación que se está
llevando a cabo. Cuando se aplica a un objeto, teórico implica que no pertenece a la base
empírica epistemológica y que su conocimiento es indirecto, seguramente facilitado por teorías
e instrumentos. Esta nomenclatura es razonable porque, en cierto modo, los datos de la base
empírica epistemológica son independientes de los marcos teóricos. También es verdad que el
desarrollo cultural y la experiencia fáctica ensanchan y aun alteran nuestra base empírica
ordinaria. Por otra parte, en la vida cotidiana aparecen datos que un científico no estaría
dispuesto a tomar en cuenta y registrar en el curso de una investigación. Son necesarios ciertos
requisitos adicionales para discriminar entre aquello que se admite en calidad de dato y lo que
simplemente se considera el resultado de una experiencia cotidiana sin interés para la ciencia.

La base empírica metodológica

A medida que se desarrolla la ciencia, se incorporan al conocimiento científico numerosas


teorías o instrumentos de observación. Aceptar los datos que nos proporciona un instrumento
implica a la vez aceptar una teoría acerca del mismo. En estas circunstancias ocurre que,
cuando utilizamos el instrumento, o a veces meramente una teoría, hablamos de observación
en un sentido más amplio que el que hemos descrito a propósito de la base empírica
epistemológica. Por ejemplo, un biólogo, al mirar a través de un microscopio y observar una
célula, ésta no es un dato epistemológico, es decir, un elemento de la base epistemológica, sino
que está inferida. La inferencia se debe a que el biólogo acepta sin discusión la teoría que
legitima el uso del microscopio, y que ha sido justificada y aceptada por la disciplina llamada
óptica. Se reconoce que se está haciendo una inferencia con el recurso a una teoría, pero no se
discute la física. Por tanto, se acepta que la célula está presente, que la estoy observando y que
estoy hablando acerca de ella. Otro ejemplo: a veces, para inferir o justificar leyes como la de
Boyle-Mariotte, que rige el comportamiento de gases en ciertas condiciones, se miden
presiones, volúmenes y temperaturas, y los resultados de las mediciones también en este caso
se los llama datos. Pero ninguno de ellos es un dato empírico en sentido epistemológico, pues
se presupone para su obtención el uso de algún instrumento y la teoría que lo justifica. En este
caso serían datos epistemológicos el instrumento en sí mismo, como objeto, el lugar de
coincidencia entre el nivel de un líquido y una raya en el densímetro o la coincidencia entre una
marca de una regla y el extremo de una barra. Pero si no disponemos de una teoría que
legitime el funcionamiento del instrumento de medición, aquello de lo que se está hablando
no es directamente observable, y un ignorante o un miembro de una cultura diferente a la
nuestra no estaría en condiciones de captar semejante tipo de datos en condición de tales.
Estamos ante una situación más ligada a la metodología que a la epistemología, pues el
científico acepta sin discusión una serie de teorías presupuestas que empleará para su
investigación. Las teorías aceptadas le permite inferir conocimientos que nuestro científico
considera datos, en un sentido que ya no es epistemológico sino metodológico. Por eso dichos
datos, obtenidos con el recurso a ciertas teorías que no se cuestionan, forman parte de la
llamada base empírica metodológica.
Estructura lógica: en el caso del microscopio, el biólogo conoce una ley: "Percibo una mancha a
través del ocular si y sólo si hay un objeto mucho más pequeño, pero isomórfico en el
objetivo". Su forma lógica es la siguiente: A si y sólo si B. Aquí A resume una descripción hecha
en términos que aluden a la base empírica epistemológica, obtenible por observación directa a
través de la experiencia. En cambio B describe lo que sucede en la zona teórica, e involucra
entidades tales como, en el caso del microscopio, el objeto pequeño en el objetivo, que no
puede verse a simple vista. En general B tratará acerca de magnitudes tales como la presión y
la densidad, cuyos valores son obtenidos por medio de instrumentos y pertenecen, por tanto, a
la zona teórica. Desde el punto de vista lógico, el enunciado "A si y sólo si B" es una
equivalencia que garantiza la verdad de B si A es verdadero y la verdad de A si B es verdadero.
En este caso, el enunciado vincula la descripción de algo que se conoce en la base empírica con
algo relativo a la zona teórica. Los enunciados que establecen una relación entre el ámbito de
lo empírico y el ámbito de lo teórico tienen una importancia crucial, y en la jerga
epistemológica se los llama reglas de correspondencia o bien, hipótesis puente. Quien ha
aceptado ya ciertas teorías como la teoría óptica que fundamenta el uso del microscopio en el
caso de nuestro biólogo y, en general, quien ha aceptado ya cierto tipo de leyes científicas,
presupone que existen reglas de correspondencia de la forma "A si y sólo si B", donde A es el
componente empírico y B es el componente teórico. Con ello no queremos decir que A y B
tengan igual significado. El enunciado "A si y sólo si B" es la admisión de que cuando está
presente aquello que describe A en la base empírica también está presente lo que describe B
en la zona teórica y viceversa.
En el caso del microscopio, el biólogo que afirma estar observando una célula hace en realidad
un razonamiento que tiene dos premisas y una conclusión. La primera premisa es la regla de
correspondencia "A si y sólo si B". La segunda es una premisa empírica que puede
denominarse premisa dato: afirma A, es decir, en nuestro ejemplo, la presencia de la mancha
vista a través del ocular. Ahora bien, hay una regla de razonamiento correcta, conocida desde la
antigüedad con el nombre de modus ponens, una de cuyas variantes tiene la siguiente forma:

A si y sólo si B
A
por consiguiente: B

Si se admite la equivalencia entre A y B, cuando A sea verdadera, B, la conclusión, tendrá


necesariamente que ser verdadera también. En el caso del microscopio, "A si y sólo si B" es la
regla de correspondencia que vincula la mancha con el objeto microscópico en virtud de una
teoría óptica aceptada, mientras que la segunda premisa A expresa el dato de que está
presente la mancha en el ocular; entonces, por la sola existencia de la regla llamada modus
ponens, B, la presencia en el objetivo del objeto llamado célula, tiene que ser admitida.
El razonamiento está implícito y lo que se tiene es B como una suerte de resultado instantáneo
de contar con la regla de correspondencia y la premisa dato. De manera epistemológicamente
incorrecta pero muy adecuada desde el punto de vista práctico, conviene, y así lo hacen los
científicos, extender el sentido del término observación y admitir que se está observando lo
que se describe en B: observamos la célula. Cuando nos refiramos a la base empírica
metodológica diremos que hemos hecho una observación en sentido amplio o extenso, para
distinguirla de la que describimos a propósito de la base empírica epistemológica y que de aquí
en más denominaremos observación en sentido estrecho.

La observación en sentido amplio

En la inmensa mayoría de los casos, la observación científica es observación en sentido amplio,


lo cual indica que la labor empírica de los científicos siempre presupone implícitamente un
marco teórico constituido por todas aquellas teorías ya aceptadas por la comunidad científica y
que en el momento de la investigación se consideran fuera de discusión. Pero algo similar
ocurre en nuestra vida cotidiana. Decimos que observamos un libro, pero, sin embargo, en una
teoría rigurosa de la percepción deberíamos admitir que lo que vemos en realidad son tres
cuadriláteros de distinta textura que convergen en un vértice. Nadie duda sin embargo que
estamos observando un libro. Esto se debe a toda nuestra experiencia anterior, cotidiana,
donde hemos incorporado un notable conocimiento. Esta será la regla de correspondencia "A
si y sólo si B". Y ella, junto con el dato A de que estamos ante ciertos datos particularidades,
nos permite inferir B, es decir, que tenemos delante un libro. Damos por sentada esa inferencia
que nos lleva desde el dato empírico perceptual hacia el objeto físico. Todo esto muestra que,
desde un punto de vista filosófico o epistemológico, el conocimiento de lo que llamamos
objetos físicos en nuestra experiencia cotidiana se infiere a partir de datos perceptuales. En el
mismo sentido, en ciencia, los datos de la base empírica metodológica son inferidos a partir de
los datos de la base empírica epistemológica. Es muy justificable, por tanto, que se emplee la
palabra observación en sentido amplio: en términos metodológicos; el científico habla de
observaciones y datos aunque no formule las distinciones correspondientes, pues lo hace en el
mismo sentido en que lo hacemos nosotros cuando afirmamos observar libros.
Consideremos en primer lugar la base empírica epistemológica, en la cual situamos los datos
que no hacen uso de teorías instrumentos, y que serían, en principio, accesibles a la inspección
directa. Debido a los problemas que se plantean en esta primera base empírica, en algún
momento del desarrollo del conocimiento surgieron las primeras teorías científicas básicas con
fines explicativos de esta peculiar realidad. Estas teorías proponían leyes del comportamiento
de la realidad en esa base empírica y, aceptadas que fueron, originaron reglas de
correspondencia del tipo "A si y sólo si B", donde A corresponde al aspecto empírico y B al
aspecto teórico. A partir de ellas fue posible extender las observaciones y constituir una
primera base empírica metodológica. La observación en sentido amplio permitió por tanto
disponer de más objetos que los que se tenía antes, es decir, nuevos datos que se entienden
como tales a condición de no cuestionar las leyes en las que nos hemos basado para inferirlos
desde la base empírica epistemológica. Pero entonces surgen nuevos problemas en la base
empírica metodológica, y aparecen nuevas teorías para solucionarlos y nuevas reglas de
correspondencia del tipo "A si y sólo si B", donde A atañe a lo empírico u observacional en
sentido amplio, y B a nuevos tipos de observación ampliada, dando lugar a una segunda base
empírica metodológica, y así sucesivamente. El resultado semejaría una estructura de "capas
de cebolla", cuyo núcleo estaría constituido por la base empírica epistemológica BEE y cuyas
capas representarían las sucesivas bases empíricas metodológicas, BEM1, BEM2, BEM3…, que
se proponen a medida que evoluciona la investigación científica.
Algunos epistemólogos se oponen a la visión fundamentalista de la ciencia, según la cual ésta
se desarrolla por etapas y cada etapa funda las anteriores, y por tanto objetarían la pretensión
de
encontrar en la historia de una ciencia los pasos de crecimiento que señalamos anteriormente.
Ellos dirían que las ideas científicas se entrecruzan entre sí constantemente de una forma tal
que, en lugar de una estructura estratificada como la que hemos propuesto, correspondería
hablar más bien de un entretejido algo confuso de hipótesis, teorías y distintos puntos de vista
coexistentes. Nuestra creencia, sin embargo, es que tal estratificación es posible, y que ello se
pondría en evidencia a través de una interesante labor de la historia de la ciencia, no entendida
en términos de lo que exactamente ha pasado sino de lo que habitualmente se llama una
"reconstrucción racional" del desarrollo científico. Una investigación de esta naturaleza daría
cuenta efectivamente de cómo se ha constituido la observación científica a lo largo de la
historia y permitiría mostrar la pertinencia de la estructura en "capas de cebolla". Una segunda
acotación que corresponde señalar es que las teorías científicas no son inamovibles. A veces
tienen corta vida y son reemplazadas en su momento por otras, ya se trate de un simple
perfeccionamiento de las existentes o bien de sustituciones revolucionarias. Siendo así, la
estructura de "capas de cebolla" puede de pronto corromperse. Los cambios teóricos en la
historia de la ciencia pueden no ser meramente tales, sino que pueden incidir también en la
pérdida de todo aquello que se admitió como observación hasta ese momento. El campo del
psicoanálisis es particularmente adecuado para ilustrar este punto, puesto que en él las teorías
son más cuestionables y coexisten muchas teorías rivales. Sin embargo, en el campo de las
ciencias más rigurosas, en los años inmediatamente posteriores a la formulación de la teoría
electromagnética por James Clerk Maxwell, muchos físicos pensaban que la observación de
fenómenos electromagnéticos era en rigor observación de las propiedades de un medio
material llamado éter. Pero luego las teorías clásicas del electromagnetismo fueron
descartadas, el concepto de éter desapareció de la física y por tanto ya no se pudo afirmar que
se lo observaba o que se observaban algunas de sus manifestaciones. Ocurre que la noción de
observación en sentido extenso y la de objeto teórico propuesto por una teoría para explicar la
realidad están estrechamente vinculadas. Nuestra distinción inicial entre objetos directos y
objetos teóricos era una distinción a la vez epistemológica y ontológica, pero desde el punto de
vista del avance del conocimiento lo referente a los objetos teóricos es problemático: no todo
aquello de lo que allí se habla efectivamente existe. Para la construcción del conocimiento es
materia de conjeturas qué objetos teóricos hay y cuáles no hay y, ciertos objetos teóricos que
en determinado momento son admitidos pueden desaparecer en un momento posterior. (El
término ontológico es utilizado en filosofía en relación con el problema de cuáles son los tipos
o clasificaciones categoriales más generales que corresponde hacer con las entidades.
Utilizaremos esta palabra para diferenciar cuestiones vinculadas al uso del lenguaje empleado
para referirse a las entidades de aquellas que surgen cuando se discute su existencia de las
mismas).
El desarrollo científico acontecido desde las primitivas observaciones hasta teorías más y más
complejas se realiza en sucesivas ampliaciones de la base empírica. Por ejemplo, al caso en que
se utilizan rayos X para detectar la estructura atómica y molecular de los cristales. Se obtienen
fotografías en las cuales se percibe una serie de manchas simétricamente ubicadas.
¿Corresponde o no afirmar que se están observando átomos? Para un epistemólogo de la
química de ninguna manera se puede aceptar que hay observación de átomos en sentido
epistemológico. Los contenedores, en cambio, procederán metodológicamente, usando un
complicado marco teórico para justificar lo que ellos llaman observación, pero en este sentido
tienen razón también ellos: indudablemente se “ven” los átomos. A medida que las teorías
científicas se enriquecen, o aparecen nuevas teorías cada vez más potentes, es evidente que la
observación en sentido amplio se hace cada vez más posible. La noción de observación en
sentido metodológico no se vincula siempre con el uso de instrumentos o artefactos
tecnológicos. La clave de lo antes dicho son las teorías científicas, que proporcionan las leyes o
reglas de correspondencia del tipo “A si y sólo si B”. por ejemplo, quien no adopte el marco
teórico del psicoanálisis se sentirá perplejo y se preguntará cómo diablos se puede observar
algo semejante a un superyó. Pero el psicoanalista dirá que lo observa con el mismo derecho
con que un físico afirma observar los átomos o un biólogo las células. La observación en
sentido metodológico no depende de instrumentos, sino de las leyes de las cuales se disponga.

Requisitos de la observación científica

Efectividad

El requisito de efectividad exige que la verdad o la falsedad de la afirmación sobre el suceso o


el aspecto de la base empírica a los que nos estamos refiriendo pueda, en principio, ser
dirimida en un número finito de pasos. De no ser posible, no aceptaríamos el presunto dato
como un dato científico. Lo llamamos requisito de efectividad porque presupone algún método
efectivo que "decida por sí o por no". Se trata de la posibilidad de observación. El requisito de
efectividad está vinculado a la cuestión coyuntural histórica de qué posibilidades técnicas y
vivenciales tenemos para producir la experiencia de observación. Mucho de lo que no era
observable en sentido epistemológico años atrás ahora lo es, por ejemplo, las montañas de la
cara oculta de la Luna.
La importancia de la base empírica como elemento de control, para dirimir "por sí o por no" lo
insinuado por la teoría. Aquí el requisito de efectividad encuentra una dificultad, que vamos a
denominar provisoriamente la vaguedad o imprecisión de los objetos reales. Éstos, tal como se
nos presentan a través de la experiencia, no parecen tener límites definidos, lo cual se
manifiesta cuando los percibimos o captamos; en este sentido, el problema puede radicar en
determinar, por ejemplo, si la aguja de un dial coincide o no con una raya de la escala. Debido a
las limitaciones señaladas, a las imprecisiones de las marcas, a las imperfecciones en el
pulimiento o el diseño de los instrumentos, llega un momento en que no podemos contestar
"por sí o por no" la pregunta acerca de la coincidencia de la aguja y la raya. Decir que una
medida es 14,57 nos deja en la duda de si la parte decimal es 57 ó 58, porque estaríamos
aparentemente a mitad de camino entre dos rayas de la escala sin poder decidir dónde
exactamente. Generalmente la vaguedad conspira contra la efectividad sólo hasta cierto grado,
pero en algunos casos la cuestión puede ser asunto de vida o muerte. Para decidir si el espacio
físico es euclideano o no euclideano, hay que establecer por ejemplo si la suma de los ángulos
interiores de un triángulo es igual a 180º o no. No existe ningún procedimiento instrumental
que permita dar una respuesta absolutamente precisa. Aun empleando un triángulo geográfico
muy grande, los mejores instrumentos dirán, por ejemplo, que la suma de los tres ángulos es
igual a 179º 59' 59,983". Como consecuencia, no podremos discriminar entre dos
posibilidades: si se trata de una medida exacta que demuestra que el triángulo es no
euclideano o si estamos dentro de los límites de imprecisión de los instrumentos y nada
podemos decidir. Por consiguiente, el requisito de efectividad está limitado por la vaguedad
ontológica de los objetos reales, que induce restricciones en los procedimientos de medición o
de captación de nuestras observaciones.

Repetibilidad

Este requisito para la observación científica afirma que los datos que importan a la ciencia
deben tener la posibilidad de ser repetidos. Un dato único, irrepetible, no inspira confianza,
porque puede estar perturbado o ser el fruto de una conjunción casual de circunstancias. Pero
si es repetible, y lo que se afirma a propósito del dato se afirma también en sus repeticiones,
tendremos una base confiable para creer que estamos en presencia de una regularidad, de una
ley. Sin embargo, ¿qué es lo que se repite? Puede ser útil en este punto recoger una idea de
Popper: su distinción entre acontecimiento y evento. Tanto un acontecimiento como un evento
se refieren a algo que sucede y no a objetos, pero nuestra concepción de la base empírica no
involucra solamente objetos sino también sucesos. Un determinado suceso tiene lugar y fecha.
Si en este momento arrojamos una moneda al suelo, el acontecimiento, el suceso, es la caída
de la moneda, aquí en Buenos Aires, en tal dirección, en tal habitación y a tal o cual hora. Es
evidente que si volvemos a arrojar la moneda, el lugar será el mismo, salvo que nos hayamos
trasladado, pero la fecha será otra. El primer acontecimiento no es idéntico al segundo y no
tiene ningún sentido hablar de la repetición de un acontecimiento a secas, porque un
acontecimiento no se repite, tiene lugar en su instante y lugar en el espacio-tiempo. La teoría
de la relatividad pone el énfasis justamente en esta idea de que la descripción del mundo se
haga sobre la base de sucesos que estén ubicados en el espacio y el tiempo, y la tendencia a
describir procesos como cadenas de tales acontecimientos parece bastante acertada, pero
ellos no son repetibles. Lo que ocurre es que hay acontecimientos que tienen cierta similitud y
otros que no la tienen: una moneda que cae no es similar a una explosión, al nacimiento de
Napoleón,
a la aparición de una nova o a la renuncia de un presidente. En este sentido, propone Popper,
las familias de sucesos semejantes en algún respecto se pueden llamar eventos. De acuerdo
con esta propuesta, un mismo acontecimiento puede formar parte de muy distintos tipos de
eventos, según el aspecto en que se ponga el énfasis. La renuncia de un presidente puede ser
un hecho revolucionario pero también un drama familiar. Un evento sí es repetible, pues es
una familia de acontecimientos de un mismo tipo. Si un evento es la caída de monedas, los
acontecimientos anteriores serían dos casos particulares del mismo. De acuerdo con esta
distinción, la recomendación de que sólo se tengan en cuenta circunstancias repetibles para
que los científicos las incorporen a su acervo de conocimiento debe expresarse con mayor
precisión. Lo que se quiere decir es que deben ser tomados en cuenta únicamente
acontecimientos que correspondan a eventos repetibles. De otro modo el acontecimiento no
tendrá interés científico.
Hay ciencias que cuentan con eventos repetibles, o por lo menos repetidos, como es el caso de
la astronomía. Una gran familia de ciencias, a la que pertenecerían la física, la química, la
biología y algunas otras, tendrían la posibilidad de formular teorías que proporcionen leyes,
porque la repetibilidad es lo que permite establecer correlaciones, pautas constantes de
acontecimientos, etcétera. Pero existen disciplinas donde esta circunstancia no ocurre, o bien
ocurre de manera muy parcial. Un ejemplo es la historia. ¿Hay aquí eventos interesantes
repetibles? Si bien se pueden caracterizar eventos tales como las revoluciones políticas,
constituidas por acontecimientos históricos, los acontecimientos de un mismo evento son tan
diferentes que finalmente lo que hay de común entre ellos es banal y muy poco interesante.
Hay diferencias tan considerables entre la revolución rusa, la revolución norteamericana y la
revolución que destronó a Domiciano en Roma en cuanto a sus características, que para lograr
alguna conclusión los eventos a considerar serían casi inocuos y de ellos apenas se podrían
obtener leyes generales de este tipo: "En toda revolución hay gente que se siente incómoda". A
un historiador le interesan los acontecimientos en tanto tales.
Hay que admitir que en ciertas disciplinas la preocupación principal es idiográfica, en el sentido
de que se refiere a acontecimientos irrepetibles que importan por sí mismos, que tienen un
interés intrínseco y no por ser el caso particular de una ley. Pongamos por caso: la batalla de
Waterloo. Sin embargo, detrás de este enfoque hay problemas de leyes generales subyacentes.
Esta creencia, en el caso de la historia, es compartida por autores tan diferentes como
Spengler, Marx y Toynbee. Muchas ciencias integrantes de este segundo conjunto, que no
alcanzan por el momento el nivel del interés por el evento y la ley, paulatinamente se
incorporarían al primer conjunto, al que pertenecen la física y la biología.

Intersubjetividad

Un tercer requisito que se suele exigir con bastante énfasis es el de intersubjetividad, según el
cual ningún dato puede provenir de un único captador del mismo. En principio debe ser posible
para todo dato haber sido observado por más de un observador. La objetividad de los datos
radica precisamente en su intersubjetividad, o sea en el hecho de que distintas personas lo
pueden registrar. Pero aquí hay dos dificultades. Una es de principio: ¿qué se está diciendo
exactamente con este requisito? La segunda radica en que algunas disciplinas, en particular el
psicoanálisis, tienen dificultades a este respecto, y de allí la batalla entre el conductismo y las
disciplinas psicológicas que aceptan el dato introspectivo como un dato de valor. El
psicoanálisis, en particular, cuando admite fenómenos como la contratransferencia, parecería
dotar a cada terapeuta de un instrumento por el cual, de acuerdo con lo que él experimenta
emocionalmente en un momento dado, puede inferir lo que le sucede al paciente. (Si el
paciente es odontólogo, por ejemplo, el terapeuta puede de pronto experimentar un fuerte
dolor de muelas.) Pero este dato es puramente introspectivo y subjetivo, y no cumple el
requisito de intersubjetividad. ¿Sería cuestión, entonces, de abandonar este tipo de datos y
quedarse solamente con aquellos que sí pueden ser recogidos por distintos observadores? Vale
la pena preguntarse si la intersubjetividad se exige para los acontecimientos o para los eventos.
En el primer caso la exigencia es muy fuerte: todas las teorías psicológicas que admiten datos
intersubjetivos quedarían directamente descartadas. Pero si la intersubjetividad se exige sólo
para los eventos, aunque cada dato por separado sea introspectivo, un conjunto amplio de
científicos bien puede haber experimentado datos correspondientes a un mismo tipo de
evento. En este sentido la contratransferencia constituiría un evento, una familia de
acontecimientos que muchas personas dicen haber experimentado y haber utilizado con fines
informativos terapéuticos. La intersubjetividad se manifestaría por la presencia de una gran
cantidad de testigos de tales acontecimientos. A modo de conclusión, no hay un único requisito
de intersubjetividad, sino dos. Uno, fuerte, exige que los acontecimientos sean
intersubjetivamente captables, condición que satisfacen en particular las ciencias "duras". El
segundo, débil, exige solamente la característica de intersubjetividad para los eventos, y ésta
sería la condición a ser satisfecha por ciertas disciplinas dentro del campo de las ciencias
humanas o sociales. Para que este último requisito en sentido débil sea aceptado deberíamos
agregar la exigencia de que tales datos sólo sean empleados para la inducción o sugestión de
teorías y leyes, en el contexto de descubrimiento, pero a su vez la puesta a prueba de las
teorías así obtenidas debería someterse, en el contexto de justificación, a requisitos de tipo
conductista, fuertes.

Controversias

La distinción entre objetos directos e indirectos no es aceptada por todos los epistemólogos.
Pero en realidad la disputa se halla relacionada no tanto con una distinción ontológica acerca
de objetos sino con la que corresponde en el plano lingüístico. Gira en torno a la cuestión de si
hay términos empíricos u observables y teóricos, nítidamente diferenciados según el tipo de
entidades a las cuales dichos términos hacen referencia. La crítica apunta a negar una
afirmación que hemos realizado anteriormente: la de que tomar un dato, desde el punto de
vista epistemológico, implica la no existencia de presupuestos teóricos. Esto es totalmente
imposible, se argumenta, pues no hay dato que no tenga contaminación teórica o presupuestos
tácitos y, por consiguiente, todo dato se obtiene por la mediación de teorías. Dicho de otro
modo: no habría dato independiente anterior a las teorías. La cuestión se vincula con el
problema de si existe o no una base empírica filosófica indubitable, porque allí comienza la
construcción por "capas de cebolla" de bases empíricas metodológicas sucesivamente
ampliadas. Es probable que, en un sentido práctico, toda vez que consideramos un objeto haya
alguna teoría presupuesta y oculta con auxilio de la cual lo conceptuamos. Pero, no es lo
mismo afirmar que para tomar un dato debamos presuponer alguna teoría, lo cual es muy
probable, que afirmar que dicha teoría ha de ser siempre una teoría científica.
Es verdad que en el lenguaje cotidiano hay muchos presupuestos teóricos. Pero no es tan claro
que en todo lo que tomamos con el auxilio del lenguaje ordinario haya, ocultas, teorías
científicas. El epistemólogo Thomas Kuhn, en su influyente libro La estructura de las
revoluciones científicas, de 1962, aduce que en el lenguaje cotidiano hay algo así como fósiles
de muchas teorías científicas, que en un principio se hallaban apartadas de él pero que poco a
poco, con el tiempo, se fueron incorporando. Se puede admitir que haya un contenido teórico
en el lenguaje ordinario y en nuestra manera de concebir la base empírica epistemológica,
pues ya hemos dicho que ésta se modifica a medida que la historia transcurre y la cultura
evoluciona. Pero ello no invalida nuestra pretensión, ligada a la epistemología, de discutir si es
posible fundamentar todas las teorías científicas. En este sentido, el control de las mismas se
realiza a través de elementos culturalizados por el lenguaje cotidiano, pero sometemos a
control la ciencia en la medida en que ésta puede explicar, hacer predicciones y dar cuenta de
las regularidades y fenómenos que en la vida cotidiana ya hemos captado. Cuando se
mencionan a la vez, como en el título de un célebre libro de Conant, la ciencia y el sentido
común, se quiere hacer notar la fuerte presencia de éste en la ciencia con el significado de que
la base empírica, que provoca los problemas, que controla, que obliga a construir explicaciones
y acerca de la cual queremos hacer predicciones, no está contaminada por teorías científicas
presupuestas.
En determinados momentos de la historia de la ciencia acontece que la comunidad humana en
general y la científica en particular dan como formando parte del acervo cultural a una serie de
teorías científicas, y entonces el problema que se presenta es el control de todo lo nuevo que
se ofrece a la luz de ese momento peculiar de la cultura. Aquí es la base empírica metodológica
la que se transformará en juez de las novedades. Pero en la controversia acerca de si es lícita o
no la diferencia entre base empírica y zona teórica, si el argumento es el llamado "de la carga
teórica" de toda observación, parece importante distinguir entre carga teórica en un sentido
absoluto ligado al lenguaje ordinario y carga teórica de tipo científico.
Fundadores y críticos: comienzo y fin de una hegemonía

Unidad 2

Del Círculo de Viena a la Concepción Heredada.

1. Sobre una distinción terminológica: los compromisos empiristas y lógicos.


2. El Círculo de Viena: lenguaje, reducción, homo mensura y experiencia. El círculo que no
termina de cerrar: variaciones a partir de las discusiones en torno al carácter estricto o
no de la verificabilidad, la plausibilidad de la definición completa de los términos
teóricos y la metodología inductiva. Otto Neurath y su versión coherentista del
conocimiento: ¿qué tienen de “primeras” y “no problemáticas” las proposiciones
protocolares? Neurath vs. la(s) metodología(s): ¿es racional abandonar una
enciclopedia?.
3. Si de explicar se trata: explicación y legalidad. Toda ciencia explica y todas las ciencias
explican ¿igual?.
4. El comienzo de la crítica. El problema de la experiencia. Críticas a la inducción. La
metodología en cuestión. Dentro y fuera del Círculo: Hempel y Popper acerca del
hipotético-deductivismo.

Brown, H. I. – La nueva filosofía de la ciencia

Los orígenes del empirismo lógico

El empirismo de Hume

Los dos problemas centrales de la teoría del conocimiento son los problemas del significado y
la verdad, y el enfoque empirista de dichos problemas recibió su forma clásica en la obra de
David Hume. Triple distinción entre impresiones, ideas y lenguaje. Las impresiones son los
objetos inmediatos de conciencia de los que tenemos experiencia cuando percibimos o
hacemos introspección. Las ideas son los objetos de los que tenemos conciencia en todas las
actividades mentales diferentes de la percepción y la introspección, por ejemplo, siempre que
reflexionamos, recordamos, imaginamos, etc., y debemos distinguir dos clases de ideas: ideas
simples e ideas complejas. Las ideas simples son copias de impresiones que permanecen en la
mente después que ha ocurrido una impresión. Las ideas complejas son las ideas que crea la
imaginación combinando ideas simples. La imaginación puede reunir cualquier conjunto de
ideas simples para formar una idea compleja, pero no puede crear nuevas ideas simples: así
pues, el ámbito de las ideas que puedo tomar en consideración se encuentra limitado por el
ámbito de las impresiones de las que he tenido experiencia.

Para Hume, impresiones e ideas proporcionan un inventario completo de los objetos de


conciencia, pero no constituyen conocimiento alguno. Todo conocimiento se formula en
proposiciones, por esto, son cuestiones centrales de la epistemología: cómo determinar si una
presunta proposición es significativa y cómo determinar qué proposiciones significativas son
verdaderas. La unidad básica de significado para Hume es el término, y un término posee
significado sólo si hay una idea que le corresponda. Un individuo sólo puede conocer el
significado de un término si ha tenido experiencia de las impresiones necesarias para la
formación de la idea correspondiente. El ámbito del lenguaje significativo se encuentra
limitado al ámbito de la experiencia posible. A su vez, las proposiciones significativas deben ser
subdivididas en dos clases: relaciones de ideas y cuestiones de hecho. Los enunciados de
relaciones de ideas afirman conexiones que se dan entre ideas, y su valor de verdad viene
determinado exclusivamente por la reflexión sobre esas ideas. El conocimiento de relaciones
de ideas es a priori, y es la única forma de conocimiento a priori que Hume admitirá. Los
enunciados de cuestiones de hecho se refieren al mundo de la experiencia, y su valor de
verdad viene determinado por referencia a la experiencia. Todo enunciado de una cuestión de
hecho equivale a un conjunto de aserciones sobre qué clases de impresiones tienen lugar en
conjunción recíproca, y estos enunciados se comprueban observando si dichas impresiones
tienen o no tienen lugar.
Además de ser la fuente del conocimiento y la verdad, las impresiones son también para Hume
los existentes últimos, los bloques fundamentales de la realidad. El único mundo que puede ser
conocido es el mundo de las impresiones, y toda impresión es ontológicamente distinta de
cada una de las demás, es decir, la existencia o inexistencia de cualquier impresión es
completamente independiente de la existencia o inexistencia de cualquier otra. Supóngase que
he observado que cierto conjunto de impresiones siempre ocurre unido; que, por ejemplo,
cierto tipo de color, olor, forma, etc., que denomino «fuego» ha acaecido siempre en
conjunción con una impresión de calor. Según Hume, no hay conexión entre la impresión de
calor y las otras impresiones de ese conjunto; así pues, no tengo ninguna razón lógicamente
adecuada para suponer que dichas impresiones acaecerán juntas en el futuro. Desde el punto
de vista de la filosofía de la ciencia, esto plantea la cuestión capital de los fundamentos para
aceptar cualquier proposición universal. Toda proposición universal entraña predicciones
acerca de la experiencia futura, pero,
si no hay conexión necesaria alguna entre las impresiones que hayan acaecido juntas en el
pasado, entonces no existe garantía alguna de que continúen acaeciendo juntas en el futuro.
Este problema lo resuelve Hume mediante una descripción psicológica de cómo adquirimos el
hábito de esperar que el futuro se parezca al pasado y cómo actuamos de acuerdo con este
hábito. Pero, para los propósitos del filósofo de la ciencia, cuyo problema es encontrar la
fundamentación racional de la aceptación de leyes científicas universales; cualquier intento de
reemplazar dicha fundamentación racional por meros hábitos comportaría el rechazo de la
racionalidad de la ciencia. Entonces, cómo se confirman empíricamente las leyes universales.
Históricamente, una de las más importantes objeciones al empirismo ha provenido de la
filosofía de la matemática. En la matemática, tenemos un cuerpo de conocimiento que es
relevante respecto a cuestiones de hecho, pero que es conocido a priori. No es por la
experiencia como llegamos a saber que 2 + 3 = 5 y, sin embargo, los científicos aplican la
matemática a la experiencia con· gran éxito. En la Investigación sobre el entendimiento
humano hace Hume la distinción entre cuestiones de hecho y relaciones de ideas y sostiene
que la aritmética, el álgebra y la geometría están integradas por relaciones de ideas y son las
tres exactas y ciertas. Hasta el siglo XX, con el desarrollo de la moderna lógica simbólica y la
teoría logicista de la matemática, no encontraremos un análisis adecuado de la matemática
desde un punto de vista empirista.
Logicismo

La tesis central de la postura logicista es formulada por Russell en el prefacio a Los principios de
la matemática: «Que toda matemática pura se ocupa de conceptos definibles en términos de
un número muy pequeño de conceptos lógicos fundamentales, y que todas sus proposiciones
son deducibles a partir de un número muy pequeño de principios lógicos fundamentales». A
fin de llevar a cabo su argumentación Whitehead y Russell desarrollan una nueva y poderosa
forma de lógica. El rasgo central de la lógica de los Principia Mathematica es que se trata de
una lógica extensional; en particular, en el caso de la lógica proposicional, se trata de una lógica
veritativo-funcional. Se establece una distinción entre proposiciones «elementales» o
«atómicas» y proposiciones «moleculares»; las proposiciones moleculares son construidas a
partir de proposiciones elementales por medio de operadores. Las proposiciones elementales
son o verdaderas o falsas, y los operadores proposicionales se definen de forma que el valor de
verdad de una proposición molecular esté determinado únicamente por los valores de verdad
de las proposiciones elementales que la constituyen. En la evaluación de las proposiciones
moleculares no juega ningún papel en absoluto el significado o contenido de las proposiciones
que las constituyen. Por ejemplo, la conjunción de dos proposiciones p y q es verdadera
siempre que tanto p como q sean verdaderas, y falsa en cualquier otro caso. Así pues, dentro
de la estructura de la lógica de los Principia no hay una diferencia significativa entre la
conjunción de dos proposiciones que se refieran al mismo asunto, como «El electrón e está en
un campo de gravitación» y «El electrón e está en un campo magnético», y la conjunción de
dos enunciados que no tengan ningún tema en común, como, por ejemplo, uno de los
enunciados anteriores y «George Washington nació el 22 de febrero». Este aspecto de la lógica
de los Principia ha tenido una significativa influencia en la obra de los empiristas lógicos, que
han adoptado la lógica de los Principia como su herramienta principal para el análisis de la
ciencia. El intento de construir una interpretación veritativo-funcional para todos los
operadores proposicionales se torna particularmente problemático en el importante caso de la
implicación. La exigencia de una lógica proposicional completamente veritativo-funcional
requiere que «p => q» tenga un valor de verdad para cada combinación de los valores de
verdad de p y q, incluyendo el caso en que el antecedente p es falso. Dentro del contexto de la
filosofía de la matemática, este problema puede ser tratado con bastante nitidez: La propiedad
esencial que exigimos de la implicación es que: «Lo que es implicado por una proposición
verdadera es verdadero». Es en virtud de dicha propiedad como la implicación da lugar a
pruebas. Pero esta propiedad no determina en modo alguno si algo, y si es así qué, es
implicado por una proposición falsa. Lo que determina es que, si p implica q, entonces no
puede darse el caso de que p sea verdadera y q sea falsa, esto es, tiene que darse el caso de
que o p es falsa o q es verdadera. La interpretación más conveniente de la implicación consiste
en decir, a la inversa, que si o p es falsa o q es verdadera, entonces «p implica q» debe ser
definida para que signifique: «O p es falsa o q es verdadera».
La definición de «p => q» como lógicamente equivalente a «-p v q» tiene el efecto de asignar el
valor de «verdadera» a cualquier implicación cuyo antecedente sea falso. Esto puede parecer
extraño, pero no crea en absoluto dificultades para el filósofo de la matemática, ya que en la
matemática sólo nos interesan las pruebas formales, y éstas tienen lugar basándose en
premisas que se suponen verdaderas. Como Whitehead y Russell indican en el pasaje arriba
citado, la propiedad esencial de la implicación para el matemático y el filósofo de la
matemática es que todo lo implicado por una proposición verdadera tiene que ser verdadero.
En su Introducción a la filosofía matemática, Russell insiste de nuevo en el mismo punto: «Para
que pueda ser válido inferir q de p, sólo es necesario que p sea verdadera y que la proposición
"no-p o q" sea verdadera. Siempre que éste sea el caso, es evidente que q tiene que ser
verdadera». Aun cuando esta noción de «implicación material» pueda ser completamente
adecuada para el análisis de la inferencia matemática, los empiristas lógicos han extendido el
uso del formalismo de los Principia mucho más allá de los límites de la matemática pura. Esto
es verdadero en particular del análisis efectuado en los Principia de las proposiciones
universales afirmativas, proposiciones de la forma «Todos los P son Q». El análisis simbólico de
dicha forma de proposición se basa en advertir que «Todos los P son Q» es lógicamente
equivalente a la forma hipotética «Si algo es P, entonces es Q». «Todos los P son Q» es
simbolizado como
«(x)(Px => Qx)», y este análisis se efectúa sobre la base de la noción de implicación material, así
que, aun cuando «(x)(Px => Qx)» no sea, en rigor, una expresión veritativo-funcional, las
propiedades de la implicación material han sido incorporadas en ella. Así también se
incorporan las propiedades de la implicación material en el análisis de leyes científicas como
«Todos los cuervos son negros», «Todos los electrones tienen carga negativa» o «Todas las
reacciones químicas entre un ácido y una base dan como resultado agua y una sal», dándose
por sentado que «(x)(Px => Qx)» es una formulación adecuada de dichas leyes.
Consideremos ahora la solución logicista al problema de la verdad matemática. El logicismo
sostiene que la matemática es lógica y que, por tanto, la matemática es verdadera en la medida
misma en que la lógica es verdadera. Desafortunadamente, como señaló el propio Russell, esto
no resuelve el problema de la verdad matemática, sino que únicamente lo retrotrae al
problema de la naturaleza de la verdad lógica. He aquí una recapitulación del asunto en su
Introducción a la filosofía matemática: Es evidente que la definición de «lógica» o
«matemática» hay que buscarla intentando dar una nueva definición de la vieja noción de
proposición «analítica>>. Aunque ya no podemos darnos por satisfechos con definir las
proposiciones lógicas como aquellas que se siguen de la ley de contradicción, podemos y
debemos aún admitir que son una clase de proposiciones completamente diferentes de las que
llegamos a conocer empíricamente. Todas ellas tienen la característica que hace un momento
hemos convenido en llamar <<tautología>>. Esta, combinada con el hecho de que pueden ser
expresadas enteramente en términos de variables y constantes lógicas (siendo una constante
lógica algo que permanece constante en una proposición aun cuando todos sus constituyentes
hayan cambiado), dará la definición de lógica o matemática pura (tautología).
En el Tractatus Logico-Philosophicus, Wittgenstein introdujo tablas de verdad y las usó como
base para formular una definición de <<tautología>>. Las tablas de verdad proporcionan un
método mecánico para calcular todos los posibles valores de verdad de una proposición
molecular. Las formas que son verdaderas para todos los valores de los argumentos, es la clase
que Wittgenstein llama «tautologías» e incluye todas las verdades lógicas y, para el logicista,
todas las verdades matemáticas. La tesis de que todas las verdades lógicas son tautologías es
claramente consistente con definiciones tradicionales de la verdad lógica, como, por ejemplo,
«Verdadero en todos los mundos posibles» o «Verdadero en virtud de la sola forma», así como
con las exigencias del empirismo. Las tautologías no dicen nada sobre el mundo, sino sólo
sobre nuestro uso de símbolos, de suerte que el empirista no debe tener ningún escrúpulo en
admitirlas como verdaderas a priori. Cuando se usan en conjunción con proposiciones
empíricas en el razonamiento lógico o matemático, las tautologías proporcionan un medio de
transformar
proposiciones empíricas en otras proposiciones empíricas sin cambiar su valor de verdad; de
esta propiedad de las tautologías deriva su utilidad para la ciencia.
Hay otro enfoque en la filosofía de la matemática que ha tenido un impacto semejante sobre
los empiristas modernos: el formalismo de Hilbert. Para el formalista, la matemática pura,
incluyendo la lógica, consta de cálculos no interpretados, de sistemas de axiomas que se
manipulan por medio de un conjunto de reglas formales o algoritmos. Como en el caso del
logicismo, para el formalista la matemática pura no dice nada sobre el mundo, pero, mientras
que el logicista sostiene que la matemática pura y la lógica son verdaderas, el formalista
sostiene que no son verdaderas ni falsas, sino meros juegos con símbolos, gobernados por
reglas. La matemática puede ser aplicada a problemas científicos dando interpretaciones
apropiadas a los símbolos, pero una vez hecho esto, nos ocupamos de matemática aplicada y la
cuestión de la aceptabilidad de un sistema de matemática aplicada para un área particular de
investigación científica se convierte en una cuestión empírica. Tanto para el formalista como
para el logicista, la lógica se interesa únicamente por la sintaxis, esto es, por relaciones
formales entre símbolos, y todos los argumentos han de consistir en la manipulación de
símbolos de acuerdo con reglas precisas. La identificación de la lógica con la sintaxis ha sido
uno de los rasgos principales de los estudios de la lógica de la ciencia de inspiración lógico-
empirista. El empirismo y la nueva lógica
simbólica fueron fusionados y desarrollados en una filosofía de la ciencia por el positivismo
lógico.

Positivismo lógico: el circulo de Viena

El término «positivismo», acuñado por Auguste Comte, se usa en general como nombre para
una forma de empirismo estricto: el positivista mantiene que sólo son legítimas las
pretensiones de conocimiento fundadas directamente sobre la experiencia. El moderno
positivismo lógico, en particular el positivismo del Círculo de Viena, es una forma de
positivismo que adopta la lógica simbólica de los Principia Mathematica como su principal
herramienta de análisis. Para el positivista lógico hay dos formas de investigación que producen
conocimiento: la investigación empírica, que es tarea de las diversas ciencias, y el análisis lógico
de la ciencia, que es tarea de la filosofía. La interpretación de Wittgenstein fue adoptada por el
Círculo de Viena. La doctrina central del positivismo lógico es la teoría verificacionista del
significado, cuya tesis es que una proposición contingente es significativa si y sólo si puede ser
verificada empíricamente, es decir si y sólo si hay un método empírico para decidir si es
verdadera o falsa; si no existe dicho método, es una pseudo-proposición carente de significado.
Para Hume, los elementos básicos de la experiencia son impresiones; para Wittgenstein, las
unidades básicas de la experiencia son hechos: no ya cualidades tales como «rojo», sino «que
hay rojo en un tiempo y lugar dados». La significación de esta distinción puede mostrarse más
claramente si se la expresa en la notación de los Principia. En este simbolismo, las impresiones
de Hume serían simbolizadas por un predicado como «P»; un hecho, por otra parte, es un
predicado individuado, y así se lo simbolizaría como «Pa». Para Wittgenstein, como para Hume,
la unidad fundamental del lenguaje significativo ha de corresponderse con la unidad
fundamental de la experiencia; mientras que para Hume la unidad fundamental de significado
es el término, que se refiere a una idea, para Wittgenstein es la proposición atómica, que se
refiere a un hecho atómico.
Para Hume, las impresiones son los existentes últimos, y para Wittgenstein juegan ese papel los
hechos atómicos. Así, Wittgenstein escribe: «El mundo es la totalidad de los hechos, no de las
cosas» y «el mundo se divide en hechos». Y, en tanto que para Hume cada impresión es distinta
de todas las demás y la única necesidad es la necesidad lógica de relaciones de ideas, así, para
Wittgenstein, «cada cosa puede acaecer o no acaecer y todo lo demás permanece igual» y «no
existe la necesidad de que una cosa deba acontecer porque otra haya acontecido. Hay sólo una
necesidad lógica». Asimismo, para Wittgenstein, las proposiciones atómicas, que constituyen el
estrato fundamental de nuestro conocimiento empírico son todas lógicamente distintas (como
para Hume las ideas simples son todas lógicamente distintas). Ninguna proposición atómica
puede ser deducida de otra proposición atómica, ni puede una proposición atómica
contradecir a otra. «La proposición más simple, la proposición elemental, afirma la existencia
de un hecho atómico». «Un signo característico de una proposición elemental es que ninguna
proposición elemental puede estar en contradicción con ella». Nuestro conocimiento empírico
consta entonces, en último término, de un conjunto de proposiciones elementales, dentro del
cual cualesquiera proposiciones pueden ser cambiadas, sin que eso tenga ningún efecto sobre
cualesquiera otras proposiciones.
Fundamental para el argumento de Wittgenstein es una distinción ulterior entre «hechos» («El
mundo se divide en hechos») y «estados de cosas» («Un estado de cosas es una combinación
de objetos (cosas)»). Un estado de cosas es un hecho lógicamente posible, un hecho es un
estado de cosas que da la casualidad de que acaece realmente. Cualquier proposición que
corresponda a un estado de cosas tiene significado, una proposición que corresponda a un
hecho es, además, verdadera, y una proposición y el estado de cosas al cual se refiere tienen la
misma forma lógica. Una proposición con significado es una figura lógica de un estado de cosas
y, en un lenguaje lógicamente correcto, toda combinación de palabras sin significado, toda
pseudo-proposición, violará las reglas sintácticas del lenguaje. Ningún lenguaje natural
existente satisface esas condiciones. Una de las preocupaciones centrales del positivista lógico
es la construcción de dicho lenguaje lógicamente correcto, y no deberá sorprendernos que el
formalismo lógico de los Principia Mathematica se adopte como base para la construcción de
tal lenguaje.
Podemos volver ahora a la teoría verificacionista del significado y aclarar qué se entiende por la
noción estrictamente positivista de verificación. Para hacerlo dividiremos las proposiciones a
considerar en cuatro clases: en primer lugar, hay proposiciones puramente formales
tautologías y contradicciones. Poseen significado y determinamos su valor de verdad
examinando su forma. En segundo lugar, hay proposiciones atómicas. También poseen
significado, y determinamos su valor de verdad observando si se conforman o no a los hechos.
Tercero, hay proposiciones moleculares. Estas son funciones veritativas de las proposiciones
atómicas, y su valor de verdad se determina determinando primero los valores de verdad de las
proposiciones atómicas constituyentes y aplicándoles luego las definiciones de las constantes
lógicas. Por último, hay otras definiciones de palabras que no caen dentro de ninguna de las
clases arriba mencionadas. Son pseudo-proposiciones, meras combinaciones de sonidos sin
significado o de signos sin contenido cognitivo. Por tanto, el valor de verdad de cualquier
proposición con significado puede ser determinado de una vez para siempre únicamente por
medio de la observación y de la lógica.

Empirismo lógico

Como mejor puede ser entendido el empirismo lógico es considerándole como una versión
más moderada del positivismo lógico. La dificultad central del positivismo lógico como filosofía
de la ciencia estriba en que las leyes científicas que son formuladas como proposiciones
universales no pueden ser concluyentemente verificadas por conjunto finito alguno de
enunciados de observación. La mayor parte de los positivistas eligieron renunciar a la estricta
teoría verificacionista del significado y reemplazarla por el requerimiento de que una
proposición con significado debe ser susceptible de ser contrastada por referencia a la
observación y al experimento. Los resultados de estas contrastaciones no necesitan ser
concluyentes, pero deben proporcionar el solo fundamento para determinar la verdad o
falsedad de las proposiciones científicas. Podemos identificar a los iniciadores del empirismo
lógico con esta liberalización de la teoría del significado del positivismo lógico; Testability and
Meaning, de Rudolf Carnap, puede ser razonablemente considerado como el documento
fundacional del empirismo lógico. Carnap reconoce la imposibilidad de verificar
concluyentemente cualquier proposición científica. Propone reemplazar la noción de
verificación por la noción de «confirmación gradualmente creciente», y toma como
fundamental la noción de «predicado observable», definiendo «oración confirmable» en
términos de dicha noción. El efecto de este último paso es un rechazo de la tesis positivista de
que la oración es la unidad fundamental de significado y un retorno al viejo interés de Hume
por el significado de los términos. Así pues, dos de los problemas centrales de la filosofía
lógico-empirista de la ciencia son el análisis de la relación de confirmación que se da entre una
ley científica y los enunciados de observación que la confirman o desconfirman, y el análisis de
cómo cobran su significado los términos científicos.

La confirmación

El problema de la confirmación puede ser considerado como una cuestión cuantitativa o como
una cuestión cualitativa, sin que ello quiera decir que ambos puntos de vista sean excluyentes.
Una teoría cuantitativa de la confirmación intenta asignar un grado de confirmación a una
hipótesis sobre la base de una evidencia observacional, y una teoría cualitativa se ocupa de
cuál es la relación entre una hipótesis y la experiencia observacional que la confirma. Esta
última cuestión es lógicamente anterior a la primera, pues, si no fuésemos capaces de
reconocer qué instancias están en una relación de conformidad o disconformidad con una
hipótesis, mal podríamos cuantificar esa relación.
Neurath, O., Carnap, R., Hahn, O. – La concepción científica del mundo: el Círculo de Viena

La concepción científica del mundo

La concepción científica del mundo tiene como objetivo la ciencia unificada. El esfuerzo es
aunar y armonizar los logros de los investigadores individuales en los distintos ámbitos de la
ciencia. De esa aspiración se sigue el énfasis en el trabajo colectivo; de allí también la
acentuación de lo aprehensible intersubjetivamente; de allí surge la búsqueda de un sistema
de fórmulas neutral, de un simbolismo liberado de la escoria de los lenguajes históricamente
dados; y de allí también, la búsqueda de un sistema total de conceptos. Se persiguen la
limpieza y la claridad, rechazando las distancias oscuras y las profundidades inescrutables. En la
ciencia no hay “‘profundidades”, hay superficie en todas partes: todo lo experimentable forma
una red complicada no siempre aprehensible en su totalidad, sino que a menudo sólo
comprensible por partes. Todo es accesible al hombre y el hombre es la medida de todas las
cosas. Aquí se muestra afinidad con los Sofistas no con los Platónicos, con los Epicúreos no con
los Pitagóricos, con todos aquellos que aceptan el ser terrenal y el aquí y el ahora. Para la
concepción científica del mundo no hay enigmas insolubles. La clarificación de los problemas
filosóficos tradicionales nos conduce, en parte, a desenmascararlos como pseudo-problemas y,
en parte, a transformarlos en problemas empíricos y de allí a someterlos al juicio de la ciencia
de la experiencia. En esta clarificación de problemas y enunciados consiste la tarea del trabajo
filosófico y no en el planteamiento de enunciados “filosóficos” propios. El método es el del
análisis lógico; de él dice Russell: “se originó lentamente en conexión con las investigaciones
críticas de los matemáticos. Según mi opinión radica aquí un progreso similar al que produjera
Galileo en la física: resultados individuales comprobables sustituyen a afirmaciones
incomprobables sobre la totalidad, susceptibles de ser
obtenidas sólo mediante la fuerza de la imaginación”.
Este método del análisis lógico es lo que distingue a los nuevos empirismos y positivismos de
los anteriores, que estaban más orientados biológico-psicológicamente. Si alguien afirma “no
hay un Dios”, “el fundamento primario del mundo es lo inconsciente”, “hay una entelequia
como principio rector en el organismo vivo”, no le decimos “lo que Ud. dice es falso”, sino que
le preguntamos: “¿qué quieres decir con tus enunciados?”. Y entonces se muestra que hay una
demarcación precisa entre dos tipos de enunciados. A uno de estos tipos pertenecen los
enunciados que son hechos por las ciencias empíricas, su sentido se determina mediante el
análisis lógico, más precisamente: mediante una reducción a los enunciados más simples sobre
lo dado empíricamente. Los otros enunciados, a los cuales pertenecen aquellos mencionados
anteriormente, se revelan a sí mismos como completamente vacíos de significado si uno los
toma de la manera como los piensa el metafísico. Por supuesto que se puede a menudo
reinterpretarlos como enunciados empíricos, pero en ese caso ellos pierden el contenido
emotivo que es generalmente esencial para el metafísico. El metafísico y el teólogo creen,
incomprendiéndose a sí mismos, afirmar algo con sus oraciones, representar un estado de
cosas. Sin embargo, el análisis muestra que estas oraciones no dicen nada, sino que sólo son
expresión de cierto sentimiento sobre la vida. La expresión de tal sentimiento seguramente
puede ser una tarea importante en la vida. Pero el medio adecuado de expresión para ello es el
arte, por ejemplo, la lírica o la música. Si en lugar de ello se escoge la apariencia lingüística de
una teoría,
se corre un peligro: se simula un contenido teórico donde no radica ninguno. Si un metafísico o
un teólogo desea retener el ropaje habitual del lenguaje, entonces él mismo debe darse cuenta
y reconocer claramente que no proporciona ninguna representación, sino una expresión, no
proporciona teoría ni comunica un conocimiento, sino poesía o mito. Si un místico afirma tener
experiencias que están sobre o más allá de todos los conceptos, esto no se lo puede discutir.
Pero él no puede hablar sobre ello; pues hablar significa capturar en conceptos, reducir a
componentes de hechos científicamente clasificables. De parte de la concepción científica del
mundo se rechaza la filosofía metafísica. ¿Cómo, sin embargo, se explican los extravíos de la
metafísica? Esta pregunta puede plantearse desde varios puntos de vista, referidos a la
psicología, la sociología, la lógica. En las teorías metafísicas, e incluso en los planteamientos
mismos de las preguntas, se dan dos errores lógicos básicos: una vinculación demasiado
estrecha con la forma de los lenguajes tradicionales y una confusión sobre el rendimiento
lógico del pensamiento. El lenguaje ordinario, por ejemplo, utiliza el mismo tipo de palabra, el
sustantivo, tanto para cosas (“manzana”) como para propiedades (“dureza”), relaciones
(“amistad”) y procesos (“‘sueño”), a través de lo cual conduce erróneamente a una concepción
“cosista” de los conceptos funcionales (hipóstasis, sustancialización). Se pueden proporcionar
innumerables ejemplos similares de extravíos mediante el lenguaje que han sido igualmente
fatales para la filosofía. El segundo error básico de la metafísica consiste en la concepción de
que el pensar puede llevarnos a conocimientos por sí mismo sin utilización de algún material
de la experiencia, o bien al menos puede llegar a nuevos contenidos a partir de un estado de
cosas dado. Pero la investigación lógica lleva al resultado de que toda inferencia no consiste en
ninguna otra cosa que el paso de unas oraciones a otras, que no contienen nada que no haya
estado ya en aquéllas. No es por lo tanto posible desarrollar una metafísica a partir del pensar
puro. De esta manera, a través del análisis lógico, se supera no sólo a la metafísica en el sentido
propio, clásico del término, en especial a la metafísica escolástica y a la de los sistemas del
idealismo alemán, sino también a la metafísica escondida del apriorismo kantiano y moderno.
La concepción científica del mundo no reconoce ningún conocimiento incondicionalmente
válido derivado de la razón pura ni ningún “juicio sintético a priori” como los que se encuentran
en la base de la epistemología kantiana y aún más de toda ontología y metafísica pre y post-
kantiana. Precisamente en el rechazo de la posibilidad de conocimiento sintético a priori
consiste la tesis básica del empirismo moderno. La concepción científica del mundo sólo
reconoce oraciones de la experiencia sobre objetos de todo tipo, y oraciones analíticas de la
lógica y de la matemática. Los partidarios de la concepción científica del mundo están de
acuerdo en el rechazo de la metafísica manifiesta o de aquella escondida del apriorismo. Pero
más allá de esto, el Círculo de Viena sostiene la concepción de que todos los enunciados del
realismo (crítico) y del idealismo sobre la realidad o irrealidad del mundo exterior y de las
mentes ajenas son de carácter metafísico, pues ellos están sujetos a las mismas objeciones que
los enunciados de la antigua metafísica: no tienen sentido porque no son verificables, no se
atienen a las cosas. Algo es “real” en la medida en que se incorpora a la estructura total de la
experiencia.
La intuición, que es especialmente enfatizada por los metafísicos como fuente de
conocimiento, no es rechazada como tal por la concepción científica del mundo. Sin embargo,
se aspira a, y exige de, todo conocimiento intuitivo, una posterior justificación racional, paso a
paso. Al que busca le están permitidos todos los medios; lo encontrado, sin embargo, debe
resistir la contrastación. Se rechaza la concepción que ve en la intuición un tipo de
conocimiento de valor más elevado y profundo, que puede conducirnos más allá de los
contenidos de la experiencia sensible y que no debe estar unido mediante fuertes cadenas al
pensamiento conceptual. Hemos caracterizado la concepción científica del mundo en lo
fundamental mediante dos rasgos.
Primero, es empirista y positivista: hay sólo conocimiento de la experiencia que se basa en lo
dado inmediatamente. Con esto se establece la demarcación del contenido científico legítimo.
Segundo, la concepción científica del mundo se distingue por la aplicación de un método
determinado, a saber, el del análisis lógico. La aspiración del trabajo científico radica en
alcanzar el objetivo de la ciencia unificada por medio de la aplicación de ese análisis lógico al
material empírico. Debido a que el significado de todo enunciado científico debe ser
establecido por la reducción a un enunciado sobre lo dado, de igual modo, el significado de
todo concepto, sin importar a qué rama de la ciencia pertenezca, debe ser determinado por
una reducción paso a paso a otros conceptos, hasta llegar a los conceptos de nivel más bajo
que se refieren a lo dado. Si tal análisis fuera llevado a cabo para todos los conceptos, serían de
este modo ordenados en un sistema de reducción, un “‘sistema de constitución”. Las
investigaciones orientadas al objetivo de tal sistema de constitución, la “teoría de la
constitución”, forman, de este modo, el marco en el cual es aplicado el análisis lógico por la
concepción científica del mundo. La realización de tales investigaciones muestra muy pronto
que la lógica aristotélico-escolástica es completamente insuficiente para esa meta. Recién en la
moderna lógica simbólica (“logística”) se logran obtener la precisión requerida de las
definiciones de conceptos y enunciados, y formalizar el proceso de inferencia intuitivo del
pensamiento ordinario, esto es, ponerlo en una forma rigurosa, controlada automáticamente
mediante el mecanismo de signos. Las investigaciones en la teoría de la constitución muestran
que los conceptos de las experiencias y
cualidades de la psiquis propia pertenecen a los estratos más bajos del sistema de constitución;
sobre ellos se depositan los objetos físicos; a partir de éstos se constituyen las mentes ajenas y
por último los objetos de las ciencias sociales. Con la demostración y el señalamiento de la
forma del sistema total de los conceptos, se reconoce al mismo tiempo la referencia de todos
los enunciados a lo dado y, con ello, la forma de construcción de la ciencia unificada.
En la descripción científica sólo puede ingresar la estructura (forma de orden) de los objetos,
no su “esencia”. Lo que une a los hombres en el lenguaje son fórmulas de estructura; en ellas
se representa, por sí mismo, el contenido del conocimiento que es común a los hombres. Las
cualidades experimentadas subjetivamente –lo rojo, el placer– son, como tales, sólo vivencias,
no conocimiento; en la óptica física sólo ingresa lo que es básicamente comprensible también
para el ciego.

Ámbitos de los problemas

Fundamentos de la aritmética

En los escritos y discusiones del Círculo de Viena se tratan muchos problemas diferentes que
surgen de las distintas ramas de la ciencia. Los problemas de fundamentos de la aritmética han
llegado a adquirir especial importancia histórica para el desarrollo de la concepción científica
del mundo, ya que son los que han dado impulso al desarrollo de una nueva lógica. Después
del desarrollo extraordinariamente fructífero de la matemática en los siglos XVIII y XIX, durante
los cuales se prestó más atención a la riqueza de nuevos resultados que a una cuidadosa
revisión de los fundamentos conceptuales, esta revisión se mostró inevitable, si la matemática
no quería perder la siempre celebrada seguridad de su estructura. Esta revisión llegó aún a ser
más urgente cuando aparecieron ciertas contradicciones. Se debió reconocer pronto que no se
trataba solamente de algunas dificultades en un ámbito especial de la matemática, sino de
contradicciones lógicas generales, “antinomias”, que indicaban errores esenciales en los
fundamentos de la lógica tradicional. La tarea de eliminar estas contradicciones dio un impulso
especialmente fuerte al desarrollo ulterior de la lógica. Aquí los esfuerzos en pos de una
clarificación del concepto de número se encontraron con aquellos a favor de una reforma
interna de la lógica. Desde Leibniz y Lambert se había mantenido vivo el pensamiento de
dominar la realidad mediante una mayor precisión de los conceptos y de los procedimientos de
inferencia y de alcanzar esta precisión por medio de un simbolismo construido según el modelo
de la matemática. Sobre la base de estos esfuerzos preparatorios Whitehead y Russell (1910)
pudieron establecer un sistema coherente de lógica en forma simbólica (logística), que no sólo
evitaba las contradicciones de la lógica antigua, sino que también las superaba en riqueza y
aplicabilidad práctica. A partir de este sistema lógico derivaron los conceptos de la aritmética y
del análisis, dando de ese modo a la matemática un fundamento seguro en la lógica. Sin
embargo, ciertas dificultades se mantuvieron en este intento de superar la crisis de
fundamentos de la aritmética que hasta hoy todavía no se ha encontrado una solución
satisfactoria definitiva. En la actualidad tres posiciones se oponen en este ámbito: junto al
“logicismo” de Russell y Whitehead está el “formalismo” de Hilbert, que concibe a la aritmética
como un juego de fórmulas con reglas determinadas, y el “intuicionismo” de Brouwer, según el
cual los conocimientos aritméticos se basan en una intuición no ulteriormente reducible de la
dualidad y la unidad. Los debates entre estas tres posiciones se siguen con el mayor interés en
el Círculo de Viena. Algunos tienen la opinión de que estas tres posiciones no se encuentran
tan alejadas como parece. Ellos suponen en definitiva que rasgos esenciales de las tres se
acercarán más en el curso del desarrollo futuro y, probablemente usando las enormemente
impactantes ideas de Wittgenstein, estarán unidas en la solución final. La concepción del
carácter tautológico de la matemática, que está basada en las investigaciones de Russell y
Wittgenstein, es sostenida también por el Círculo de Viena. Debe destacarse que esta
concepción se opone no sólo al apriorismo e intuicionismo, sino también al empirismo más
antiguo (por ejemplo, el de Mill), que quería derivar la matemática y la lógica de una manera
inductiva-experimental.
Relacionadas con los problemas de la aritmética y la lógica se encuentran también
investigaciones con respecto a la naturaleza del método axiomático en general (conceptos de
completitud, independencia, monomorfismo, no-ambigüedad, etc.), así como también sobre el
establecimiento de sistemas de axiomas para determinados ámbitos matemáticos.

Fundamentos de la física

Originalmente el interés más fuerte del Círculo de Viena fue de los problemas del método de la
ciencia de la realidad. Inspirado por ideas de Mach, Poincaré y Duhem, se discutieron los
problemas del dominio de la realidad a través de sistemas científicos, especialmente por medio
de sistemas de hipótesis y de axiomas. Tal sistema de axiomas adquiere un significado para la
realidad sólo mediante el añadido de definiciones adicionales, a saber, las “definiciones
coordinativas”, a través de las cuales se establece qué objetos de la realidad deberían ser
considerados como miembros del sistema de axiomas. El desarrollo de la ciencia empírica que
pretende representar la realidad con una red de conceptos y juicios que sea lo más uniforme y
simple posible, puede ahora preceder, como lo muestra la historia, de dos maneras. Los
cambios requeridos por nuevas experiencias pueden hacerse ya sea en los axiomas o en las
definiciones
coordinativas. Que las investigaciones hasta ahora hayan sido fructíferas casi exclusivamente
para la física, puede entenderse por el estadio actual del desarrollo histórico de la ciencia, pues
la física está bastante más adelantada que otras ramas de la ciencia en relación con la precisión
y refinamiento en la formación de conceptos. El análisis epistemológico de los conceptos
fundamentales de la ciencia natural ha liberado a estos conceptos cada vez más de elementos
metafísicos que estaban estrechamente vinculados a ellos desde tiempos remotos. En
particular a través de Helmholtz, Mach, Einstein y otros es que han sido purificados los
conceptos de: espacio, tiempo, sustancia, causalidad y probabilidad. Las doctrinas del espacio
absoluto y del tiempo absoluto han sido superadas por la teoría de la relatividad; espacio y
tiempo no son más receptáculos absolutos, sino sólo ordenadores de los procesos elementales.
La sustancia material ha sido disuelta por la teoría atómica y la teoría de campos. La causalidad
ha sido despojada del carácter antropomórfico de “‘influencia” o “conexión necesaria” y se ha
reducido
a una relación entre condiciones, a una coordinación funcional. Además, en lugar de algunas
leyes de la naturaleza sostenidas estrictamente, han aparecido leyes estadísticas e incluso se
extiende en conexión con la teoría cuántica la duda de la aplicabilidad del concepto de
legalidad causal estricta a los fenómenos de las más pequeñas regiones espaciotemporales. El
concepto de probabilidad es reducido al concepto empíricamente aprehensible de frecuencia
relativa. Por medio de la aplicación del método axiomático a los problemas nombrados, se
separan por todas partes los componentes empíricos de la ciencia de los meramente
convencionales, el contenido de los enunciados de la definición. No queda más lugar para un
juicio sintético a priori. Que el conocimiento del mundo es posible no se basa en que la razón
humana imponga una forma al material, sino en que el material está ordenado de una manera
determinada. Sobre el tipo y el grado de ese orden no se pueden saber nada de antemano.
Sólo la investigación progresiva de la ciencia de la experiencia nos puede enseñar en qué grado
el mundo es conforme a leyes. El método de la inducción, la inferencia del ayer al mañana, del
aquí al allí, es, por supuesto, sólo válido si existe una legalidad. Pero este método no descansa
en alguna presuposición a priori de esta legalidad. Puede ser aplicado en todos los casos en
que conduce a resultados fructíferos, esté suficiente o insuficientemente fundamentado;
certeza no otorga nunca. Sin embargo, la reflexión epistemológica exige que a una inferencia
inductiva se le debe dar significación sólo en
la medida en que ésta puede ser contrastada empíricamente. La concepción científica del
mundo no condenará el éxito de un trabajo de investigación por el solo hecho de haber sido
obtenido por medios que son inadecuados, lógicamente poco claros o insuficientemente
fundados empíricamente, pero se esforzará y exigirá siempre la contrastación con medios
auxiliares clarificados, a saber, la reducción mediata o inmediata a lo vivenciado.

Fundamentos de la geometría
A través del desarrollo la geometría física llegó a separarse cada vez más de la geometría
matemática pura. Esta última se formalizó gradualmente cada vez más por medio del
desarrollo ulterior del análisis lógico. Primero fue aritmetizada, esto es, interpretada como
teoría de un determinado sistema de números. Luego fue axiomatizada, esto es, representada
por medio de un sistema de axiomas que concibe los elementos geométricos (puntos, etc.)
como objetos indeterminados, y que fija únicamente sus relaciones mutuas. Y, finalmente, la
geometría fue logizada, a saber, representada como una teoría de determinadas estructuras
relacionales. De este modo la geometría se convirtió en el ámbito más importante de
aplicación del método axiomático y de la teoría general de las relaciones. De esta manera, ella
dio el impulso más fuerte al desarrollo de estos dos métodos, los que entonces llegaron a ser
tan significativos para el desarrollo de la lógica misma y con ello, nuevamente y en general,
para la concepción científica del mundo. Las relaciones entre la geometría matemática y la
geometría física condujeron naturalmente al problema de la aplicación de los sistemas de
axiomas a la realidad que jugó un gran papel en las investigaciones más generales sobre los
fundamentos de la física.

Retrospectiva y prospectiva

La moderna concepción científica del mundo se ha desarrollado trabajando sobre los


problemas mencionados anteriormente. Hemos visto cómo en la física el esfuerzo para
conseguir resultados tangibles, al comienzo con herramientas científicas inadecuadas o todavía
insuficientemente clarificadas, se vio forzado cada vez más fuertemente a investigaciones
metodológicas. Así se llegó al desarrollo del método de formación de hipótesis y luego al
desarrollo del método axiomático y del análisis lógico; con ello se consiguió la formación de
conceptos mayor claridad y fuerza. También el desarrollo de la investigación de fundamentos
en la geometría física, en la geometría matemática y la aritmética llevó, como hemos visto, a
los mismos problemas metodológicos. Los problemas de los cuales los representantes de la
concepción científica del mundo se ocupan en la actualidad preferentemente surgen
principalmente de esas fuentes.
Mirando retrospectivamente, vemos ahora claramente cuál es la naturaleza de la nueva
concepción científica del mundo en contraste con la filosofía tradicional. No se exponen
“oraciones filosóficas” propias, sino que las oraciones sólo se clarifican; y en particular
oraciones de la ciencia empírica. Algunos representantes de la concepción científica del mundo
no quieren, para enfatizar aún más fuertemente el contraste con la filosofía de sistemas,
utilizar más para su trabajo la palabra “filosofía” en lo absoluto. Sin importar qué término
pueda ser usado para describir tales investigaciones, hay algo que está de todos modos claro:
no hay filosofía como ciencia básica o universal junto a o sobre los diferentes ámbitos de la
ciencia de la experiencia; no hay reino de las ideas que esté sobre o más allá de la experiencia.
Sin embargo, el trabajo de las investigaciones “filosóficas” o de “fundamentos” en el sentido de
la concepción científica del mundo mantienen su importancia. Pues la clarificación lógica de los
conceptos, oraciones y métodos científicos nos libera de prejuicios inhibidores. El análisis
lógico y epistemológico no desea poner restricciones a la investigación científica, por el
contrario: él le pone a disposición un campo lo más completo posible de posibilidades
formales, dentro de las que ella escogerá la más adecuada para la experiencia correspondiente
(ejemplo: las geometrías no-euclideas y la teoría de la relatividad).
Los representantes de la concepción científica del mundo están resueltamente de pie sobre el
terreno de la simple experiencia humana. Confiadamente ponen manos a la obra en la tarea de
remover los escombros milenarios de la metafísica y de la teología. O, como algunos piensan:
se proponen volver, después de un interludio metafísico, a una imagen unificada de este
mundo como la que en algún sentido ya había estado en la base de las creencias mágicas,
libres de la teología, de los tiempos primitivos. El desarrollo de la ciencia de la experiencia está
conectado con el desarrollo del proceso moderno de la producción que está llegando a ser
cada vez más rigurosamente mecanizado técnicamente y deja cada vez menos espacio para las
ideas metafísicas heredadas. Está también conectado con la decepción de grandes masas de
gente con respecto a la actitud de aquellos que predican doctrinas metafísicas y teológicas
tradicionales. Así, ocurre que en muchos países las masas rechazan ahora esas doctrinas de
manera mucho más consciente que antes, y en conexión con sus posiciones socialistas se
inclinan hacia una concepción empirista apegada a lo terrenal. En los tiempos más tempranos
la expresión de esta concepción era el materialismo; mientras tanto, sin embargo, el empirismo
moderno se ha desprendido de formas insuficientes y ha conseguido una forma sólida en la
concepción científica del mundo. Así la concepción científica del mundo se mantiene cercana a
la vida contemporánea. Experimentamos cómo el espíritu de la concepción científica del
mundo penetra en creciente medida en las formas de vida pública y privada, en la enseñanza,
en la educación, en la arquitectura, y ayuda a guiar la estructuración de la vida social y
económica de acuerdo con principios racionales.

Toda ciencia tiene como objetivo el conocimiento “intersubjetivo”, esto es, válido para todos
los sujetos. El sistema de constitución, sin embargo, puede utilizar como base sólo “mis”
vivencias. La realización muestra que aquel objetivo de la intersubjetividad se alcanza, a pesar
de esta base
restringida al yo (“solipsismo metódico”). A partir de las relaciones entre mis experiencias
vivencias se constituyen primero las cualidades de sensaciones y los otros objetos “de la psique
propia”. A partir de ellos se pueden constituir los objetos físicos, puesto que todo el
conocimiento de lo físico se retrotrae a percepciones. A partir de los objetos físicos son
constituibles los “de la psique ajena”; esta oración frecuentemente cuestionada se sigue del
hecho de que las características para el discernimiento de cualquier objeto de la psique ajena
radica siempre en lo físico.
El concepto de realidad, como aparece (positiva o negativamente) en las tesis del realismo, del
idealismo y del fenomenalismo, no puede ser constituido; estas tesis no son así retraducibles a
enunciados sobre lo dado y por ello no tienen ningún sentido. Lo mismo sucede con todas las
tesis metafísicas que traspasan lo dado. No hay preguntas fundamentalmente incontestables.
Pues cada pregunta puede ser traducida a una pregunta sobre las determinaciones
inmedatamente dadas de las vivencias mediante reducción de los conceptos que ocurren en
ella, conforme con su posición en el sistema de constitución. La aceptación de cuestiones
irresolubles y el planteo de tesis metafísicas no reducibles a lo dado suelen presentar para su
justificación que ya también la ciencia de experiencia requiere traspasar el campo de lo dado
(ejemplos: electrones, la psique ajena y otros). Esta objeción se refuta mediante la
demostración aportada por la teoría de la constitución de la posibilidad de un sistema de
constitución que sólo se basa en lo dado y que sí lleva a todo concepto de la ciencia.
Un enunciado es significativo si y sólo si se atiene a las cosas, esto es, si son pensables
vivencias mediante las cuales los enunciados se confirmaran o refutaran. Las tesis del realismo
y del idealismo de la realidad o irrealidad, respectivamente, del mundo exterior (o de la psique
ajena) no se atienen a las cosas, carecen así de sentido.

Bajo mundo externo, también en sentido empírico, se entiende un sistema espaciotemporal


legal de sustancias como idéntico para todos los sujetos cognoscentes. Por ello su realidad
debe significar una segunda realidad junto a la realidad de percepción, pues ésta es individual-
subjetiva. De allí que el problema del mundo externo sea si su identidad consiste en tal
segunda realidad o sólo en un ordenamiento legal de los datos de percepción.
La realidad como hipótesis explicativa: con la aceptación de un mundo externo real idéntico se
establecen los supuestos bajo los cuales se hacen legalmente comprensibles las apariencias
efectivamente experimentadas.

Los métodos fundamentales de las ciencias legales e individuales en base al conocimiento


científico concreto bajo el punto de vista de la fundamentación de la validez del conocimiento.
Contra las opiniones de algunos lógicos modernos, que pretenden introducir modos específicos
de inferencia, sólo se llega a proporcionar validez mediante el concepto lógico estricto de
inferencia deductiva. A él se deben reducir todos los métodos, también la inducción. A
consecuencia de lo cual la inducción no puede mostrarse en realidad como relaciones
generales a partir de hechos especiales sino sólo bajo establecimiento de fundamentos de
supuestos más generales o como generalizaciones hipotéticas, que siempre deben ser
confirmadas una y otra vez. Por ello la construcción más clara y completa del conocimiento
está dada en un sistema axiomático deductivo, en el que se formulan al comienzo
expresamente los supuestos como puntos de partida y la derivación se sigue de manera
puramente deductiva. Tal sistema sólo puede valer hipotéticamente, pues no hay oraciones
generales autoevidentes inmediatamente ciertas, de las que pudieran partirse. En la aplicación
a la realidad de percepción se basa la validez de tal teoría en la concordancia de los hechos
deducidos a partir de ella con los hechos observados. También los métodos específicos de las
ciencias individuales: la “comprobación de indicios” consiste sólo en las inferencias deductivas.

Tampoco las ciencias del espíritu poseen en la “comprensión” una fundamentación específica
del conocimiento. Pues la intuición no constituye un fundamento de validez independiente,
debido a que está condicionada subjetivamente y no posibilita ninguna decisión para
resultados
contradictorios. Puede cumplir sólo una función heurística y debe ser verificada recién a través
de una demostración lógica.

Naturaleza del conocimiento. La teoría del conocimiento es investigación de las cuestiones


fundamentales de la ciencia en el sentido de una clarificación filosófica. La filosofía no es una
ciencia junto a, o sobre, las ciencias individuales; ella es sólo el medio a una comprensión de la
naturaleza de la ciencia. Conocer significa, tanto en la vida cotidiana como en la ciencia,
encontrar lo igual en lo distinto. Conocer presupone comparar representaciones. La precisión y
generalidad se alcanzan recién mediante la introducción de conceptos. Los conceptos son
signos con correlaciones estipuladas con hechos. La definición es exhibición de correlación. A
través de lo cual se restringe mucho la imprecisión, pero no se supera. La precisión total sólo
en conceptos que no se refieren a la realidad (matemática). La definición de estos conceptos
ocurre “implícitamente”, esto es, mediante relaciones formales (axiomas). – Los juicios
expresan la existencia de estados de cosas. Su función puramente formal-simbólica, no
representativa en el sentido visual. La naturaleza de la verdad es la correlación unívoca de los
juicios con los estados de cosas. Objetivo del conocimiento: describir unívocamente con un
mínimo de signos un máximo de hechos. El conocimiento intuitivo no es una cosa, intuición es
sólo vivencia. No hay conocimiento sin signos de algún tipo. La diferencia fundamental entre
saber y conocer (poner en relación, ordenar).

Problemas del pensamiento. El conocimiento aspira a una conexión abarcativa. Esta conexión
es deductiva, lógica. La inferencia estricta, indubitable, es siempre analítica: sólo
transformación de lo ya sabido, no ganancia de nuevo contenido. Los principios de la lógica son
sólo reglas de la univocidad de la descripción y de la consecuencia interna; no tienen nada que
ver con el mundo. Ellas son más bien a priori (independientes de la experiencia), pero analíticas
(tautológicas). Criterio de verdad: no la evidencia, sino la verificación, esto es, la comparación
del juicio con el estado de cosas.

Problemas de la realidad. A. El establecimiento de lo real. Problema: ¿qué es lo descripto en el


proceso del conocimiento? Característica general de todo lo real: determinación temporal.
Crítica a la filosofía de la inmanencia. También los conceptos constructivos, por ejemplo de la
física, describen lo real.
B. El conocimiento de lo real. Rechazo de la distinción metafísica entre ser y “parecer”. El
conocimiento parte de lo vivenciado y se eleva sobre ello en la construcción conceptual. La
objetividad máxima recién en el conocimiento cuantitativo. Construcción del espacio físico
(método de coincidencia). Lo físico y lo psíquico no son dos ámbitos de la realidad, sino sólo
dos tipos de formación de conceptos.
C. Validez del conocimiento de la realidad. La validez de la deducción es independiente del
estado del mundo. El procedimiento de la ciencia teórica de la realidad es hipotético-
deductivo. El problema de la validez debe así ser planteado para las oraciones más generales
(presupuestos,
hipótesis) de la ciencia. La opinión de Kant sobre el conocimiento sintético a priori es refutada;
las oraciones de la matemática son analíticas, las de la ciencia natural a posteriori. La validez
del conocimiento de la realidad se basa sólo en la inducción. Para ella no hay fundamentación
lógica,
sino sólo una motivación psicológica (Hume). Su validez depende del concepto todavía
requerido de clarificación de probabilidad. Sea como sea, la posibilidad de conocimiento
inductivo y con ello de conocimiento en general está ligada a cierta uniformidad del mundo.

El motivo más puro para la investigación física es el deseo de dar con la pista del orden oculto
de la naturaleza. El desarrollo de las teorías sigue el camino de una constante ampliación; las
concepciones aparentemente nuevas volcadas dejan intacto lo fundamentado de las viejas
teorías. – A pesar de que el camino que lleva de la experiencia a la teoría no es lógicamente
unívoco, siempre hay sin embargo una teoría que es tan superior a las otras a través de su
simplicidad, que su elección es prácticamente forzosa.
Neurath, O. – El seudo-racionalismo de la falsación

Introducción

De acuerdo con la interpretación histórica dominante la filosofía del empirismo lógico habría
quedado superada por los enfoques post-positivistas desarrollados a partir de la década de los
sesenta y, más concretamente, desde la publicación de La estructura de las revoluciones
científicas de Thomas Kuhn (1962). En esa obra concluirían aportaciones precedentes de
orientaciones y perspectivas disciplinares diversas, que habrían servido para fijar la roca para
construir enfoques sobre la ciencia enteramente novedosos. Común a ellos serían algunos de
los atributos que Rorty ha atribuido a la filosofía del futuro: el tratamiento holista,
antifundacionista y pragmatista del conocimiento y del significado, el abandono de las reglas
que nos indican cómo puede lograrse el acuerdo racional en los aspectos bajo discusión y su
sustitución por el estudio de las prácticas adoptadas por los científicos en el marco de
situaciones históricas precisas (Rorty, 1979). Los empiristas lógicos como Carnap o Neurath
pertenecen a la lista de ilusos “guardianes de la racionalidad” que constriñen a ésta bajo
algunos
principios dogmáticos como los de la dicotomía analítico-sintético o el principio verificacionista,
reducen todo el conocimiento a una base de percepciones sensibles, y tienen como resultado
una concepción radicalmente ahistórica de la racionalidad.
Algunos estudios recientes han mostrado ya convincentemente, sin embargo, que sin la teoría
de la ciencia de Neurath –junto a otras contribuciones también necesarias como la del
Wittgenstein de la década de 1930– no habría sido quizá posible un enfoque histórico de la
ciencia como los de Hanson, Feyerabend o Kuhn. Más aún, la teoría de la ciencia de Neurath
ofrece una nueva concepción de la justificación, no reducida a una relación entre ideas –o
términos– y objetos, sino elaborada en un marco de determinadas prácticas (sociales) de
investigación. A su juicio, la complejidad de la justificación no puede reducirse a puras
constricciones de base sensorial, fenoménica o cualesquiera otras. Los enfoques que procuren
regular la práctica científica concreta sobre una metodología de este tipo, por diverso que
pueda ser éste, incurren en una pretensión de naturaleza pseudorracionalista. El arquetipo de
pseudorracionalismo para Neurath es la metodología falsacionista de Popper. El análisis de su
crítica en el artículo “Pseudorracionalismo de la falsación” (Neurath, 1935) permite observar
una teoría de la ciencia de naturaleza argumentativa, que desde una perspectiva singular y
novedosa entra en la discusión de muchas tesis de buena parte de la filosofía actual de la
ciencia: la carga teórica de los datos, la distinción teórico/observacional como interna a la
teoría, la naturaleza metafórica e imprecisa del lenguaje, el carácter coherentista del
significado, etc.

El caso Neurath en el seno del Círculo de Viena

El positivismo lógico es interpretado como poco más que un enfoque a superar; un enfoque
verificacionista, formal, rígido, idealizado y ahistórico que habría sido definitivamente rebasado
por el enfoque holista de Quine, por un lado, y por las perspectivas históricas y sociológicas de
Hanson, Feyerabend y Kuhn, por otro.
Hacking relataba los aspectos esenciales de la imagen de la ciencia en el positivismo lógico:

1. Realismo. La ciencia pretende descubrir todo lo posible sobre un mundo real único. La
verdad sobre el mundo es independiente de nuestras creencias y existe una
descripción del estado de cosas de cada parte del mundo que es objetivamente la
mejor.
2. Demarcación. Existe una distinción nítida entre la ciencia y otros tipos de creencias.
3. La ciencia es acumulativa. En general, la ciencia se construye sobre lo ya conocido
precedentemente, por eso decimos que la teoría de Einstein es una generalización de
la de Newton –o ésta una aproximación a aquélla–.
4. Distinción entre observación y teoría. Los enunciados de una teoría se pueden
distinguir suficientemente entre los relativos a la observación y los que expresan
proposiciones teóricas.
5. Fundamentos. Las observaciones y los experimentos proveen los fundamentos para la
justificación de las unidades epistémicas.
6. Las teorías son sistemas deductivos y se controlan deduciendo enunciados de
observación de sus postulados teóricos.
7. Los conceptos científicos son precisos y su significado es fijo.
8. Los problemas de la ciencia se sitúan bien en el denominado contexto de
descubrimiento o bien en el contexto de justificación.
9. Unidad de la ciencia. Debería existir una única ciencia correspondiente al único mundo
real. La unidad de la ciencia puede realizarse mediante la reducibilidad de las ciencias
menos profundas a las más profundas.

La atribución de estas tesis al empirismo lógico es completamente injustificada. Si bien algunas


de ellas podrían asociarse con ciertas estipulaciones mantenidas por autores como Schlick,
Carnap, Hempel y otros, ninguna de ellas puede atribuirse a Neurath. (La actual revaluación de
las filosofías del positivismo lógico parece distinguir entre un empirismo “radical”, el de
Neurath, y un empirismo más “tradicional”, el de Carnap. Aun así, la atribución a este último de
las tesis identificadas por Hacking se ha mostrado en principio muy discutible). Las tesis
filosóficas realmente mantenidas en el Círculo de Viena, difícilmente podrían encapsularse en
un enfoque monolítico de dogmas filosóficos como los anteriores.
Las tesis relatadas por Hacking fueron de hecho objeto de una intensa discusión tanto entre los
miembros del Círculo de Viena como en sus derivaciones ulteriores. En esas discusiones
Neurath se caracterizó pronto por su adopción y propuesta de tesis novedosas. Por ejemplo, las
tesis sobre su concepción del lenguaje unificado, la concepción de que las reglas del lenguaje
dependen de decisiones convencionales y de que no existen proposiciones definitivas, o, por el
rechazo de las elucidaciones prelingüísticas y la metafísica de Wittgenstein. Mucho más tarde
podrán identificarse esas tesis en el marco de una concepción en la que la ciencia viene
expresada en términos de actividad social. Una expresión que sitúa la ciencia en las
condiciones sociohistóricas de su producción. En uno de sus últimos escritos, Fundamentos de
las ciencias sociales, Neurath se pregunta por la posibilidad de aplicar la historia a los
conceptos de la física y la química. No existe una cualificación de “universalidad” para los
enunciados de la física y la química; hay que tratarlos históricamente, porque el lenguaje de la
enciclopedia, esto es, del conjunto de enunciados en el que se incluyen, es un lenguaje
típicamente histórico. Esto prefigura un programa de naturalización en el estudio de la ciencia.
La crítica a la metodología falsacionista de Popper desempeña en la elaboración de ese
programa el primer momento de superación de una concepción equivocada en la teoría de la
ciencia.

El cargo falsacionista contra Neurath

La tarea central asumida por el Círculo de Viena consistía en la elaboración de una


“interpretación filosófica del conocimiento científico”. Pero, a pesar de la centralidad de la
tarea,
no existía unanimidad sobre lo que precisamente debía entenderse por esa “interpretación
filosófica”. Diferían en particular Neurath, Carnap, Schlick y Popper.
Popper procura un modelo de la construcción lógica o racional que asume la idea de completa
racionalidad. En cierto sentido, en ese modelo puede verse una evocación de la elaboración de
los tipos ideales de Weber. El modelo permite dar cuenta de las decisiones humanas actuales
como “desviaciones” de un proceder metodológico construido como lógica pura de la decisión,
tal como se formula en la metodología falsacionista. Algunos ejemplos de esas reglas
metodológicas que, según Popper, identifican la racionalidad científica ideal son:

1. El juego de la ciencia, en principio, no se acaba nunca. Cualquiera que decide un día


que los enunciados científicos no requieren ninguna contrastación ulterior y que
pueden considerarse definitivamente verificados, se retira del juego.
2. No se eliminará una hipótesis propuesta y contrastada, y que se haya corroborado, si
no se presentan “buenas razones” para ello. Ejemplos de “buenas razones”: sustitución
de la hipótesis por otra más contrastable, falsación de una de las consecuencias de la
hipótesis.

Pero, además, la metodología falsacionista provee una metarregla que decide sobre la validez
de las demás reglas: una regla suprema, que sirve a modo de norma para las decisiones que
hayan de tomarse sobre las demás reglas, y que –por tanto– es una regla de tipo más elevado:
es la que dice que las demás reglas del procedimiento científico han de ser tales que no
protejan a ningún enunciado de la falsación.

Neurath revoca la legitimidad de un modelo, como el de Popper, construido sobre la asunción


de la racionalidad completa; ese modelo es una expresión clara de lo que denomina
pseudorracionalismo. Frente a él, la teoría de la ciencia de Neurath procura explicitar los
presupuestos cognitivos de la comprensión científica del mundo. La originalidad de Neurath no
consiste tanto en haber incluido las cuestiones prácticas en el modelo de racionalidad, que en
otros enfoques de la “interpretación filosófica” vienesa parecían quedar excluidas, cuanto en
haber propuesto justamente una idea no dogmática de la racionalidad práctica, como resultado
de un conocimiento vital, contingente, correlato del carácter natural de la empresa científica.
(Por ejemplo, en la distinción de Carnap entre cuestiones externas y cuestiones internas
relativas al análisis de los lenguajes o marcos lingüísticos. El análisis filosófico sólo debe
enfocarse a las cuestiones internas, no a las externas o prácticas, por más que éstas sean
relevantes y puedan determinar en última instancia la elección entre marcos lingüísticos).
En contra de lo indicado por Hacking en su caracterización de la teoría empirista lógica de la
ciencia, Neurath niega la estipulación de que exista una roca o fundamento firme sobre el que
podemos levantar las teorías científicas. Los enunciados de protocolo del tipo “Otto ve que la
mesa de esta habitación es blanca” no fijan en ningún caso ese fundamento: no sólo podemos
modificar los enunciados no-protocolares, sino que cuando los enunciados de protocolo entran
en contradicción, podemos eliminarlos. No existe, por tanto, ninguna instancia básica que
dirima la rivalidad entre hipótesis en competencia. Los enunciados de protocolo son falibles y
reemplazables; los enunciados no protocolares no constituyen colecciones estancas de
enunciados relacionadas piramidalmente, sino que se relacionan entre sí mediante
correlaciones transversales con otros enunciados que coproducen su justificación. Por eso, un
enunciado de protocolo debe contener el nombre de una persona y un término relativo al
término “percibir”, “ver” o por el estilo. De este modo es posible identificar los enunciados
erróneos.
Esta concepción de los enunciados de protocolo es radicalmente diferente de la de Carnap,
Popper y Schlick, porque para Neurath “la eliminación como destino puede acaecerle también
a una proposición protocolar. Para ninguna proposición existe un ‘noli me tangere’, tal y como
Carnap considera estatuirlo para las proposiciones protocolares”. A juicio de Carnap los
enunciados de protocolo constituyen la base de partida de la ciencia, una base expresada en
un lenguaje experiencial (vivencial) inmediato, que no requiere de verificación alguna. Esta
concepción nos aboca al solipsismo de un lenguaje privado subjetivo. Por el contrario, según
Neurath, en el dialecto universal no hay proposiciones que puedan caracterizarse como “más
primarias” que otras. Todas son proposiciones de un nivel igualmente primario. En todas las
proposiciones fácticas, y si no en ellas cuando menos en las hipótesis de las cuales se han
derivado, aparecen términos tales como “seres humanos”, “procesos de percepción” y otros de
naturaleza menos primaria. [Esto significa que no son ni ‘enunciados originarios’ ni enunciados
que ‘no requieren verificación’].
Popper reconoce que la tesis de Neurath de que los enunciados de protocolo no son inviolables
sino que pueden revisarse e incluso desecharse, representa un “notable adelanto”. Pero ese
enfoque tiene el peligro, según Popper, de que abre el portillo a la arbitrariedad. En otros
términos, el enfoque es insuficiente si no disponemos de una sólida estrategia racional, de un
método, que nos guíe cuando los enunciados entran en conflicto, es decir, si no se acompaña
de la idea de la necesidad de un conjunto de reglas que limite la arbitrariedad en el “borrar” (o
bien el “admitir”) claúsulas protocolarias. Neurath omite toda regla en este sentido, y con ello,
sin pensarlo, echa por la borda todo el empirismo: pues sin tales reglas ya no es posible
discriminar entre los enunciados empíricos y cualesquiera otros. Todo sistema se convierte en
defendible si
Está permitido (y, según la opinión de Neurath, a todo el mundo le está permitido) “borrar”
simplemente una claúsula protocolaria que cause incomodidades.
De manera que podríamos hacer admisible cualquier sistema, con tal de tener una buena
provisión de enunciados protocolares formulados por testigos que enunciaran aquello que
habrían percibido en algún momento. En la interpretación de Popper, la concepción de Neurath
de los enunciados de protocolo no permite dar cuenta del problema de la demarcación y, por
tanto, no es un candidato apto para ofrecer una imagen adecuada de la ciencia empírica. “No
es más que una reliquia, concluye Popper, un recuerdo que sobrevive de la opinión tradicional
de que la ciencia empírica comienza a partir de la percepción”. No es ésta la peor imputación
dirigida a Neurath desde las filas de la metodología falsacionista. Según Lakatos, por ejemplo,
Neurath representa el defensor de los “irracionalistas” epistemológicos. La alternativa
expresada en los términos de Lakatos es característica de un falsacionista metodológico, a
saber,
adscripción a la metodología falsacionista o pérdida irremisible en el irracionalismo: Realmente
los críticos del falsacionismo ingenuo que no ofrecen un método de crítica alternativo son
inevitablemente arrastrados hacia el irracionalismo. Por ejemplo, el confuso argumento de
Neurath según el cual la falsación y la subsiguiente eliminación de una hipótesis puede haber
sido “un obstáculo para el progreso de la ciencia” carece de fuerza mientras la única alternativa
ofrecida sea el caos.
Lakatos considera que “la metodología permisiva” de Neurath (o más bien, su falta de
metodología) convertiría a la ciencia en a-empírica y, por tanto, en irracional. Esta postura de
Lakatos sólo hace más áspero el tenor de la crítica que Popper había adelantado. Allá donde
Neurath pretende que los enunciados de protocolo son registros o protocolos de
observaciones inmediatas o percepciones para ser integrados en el conjunto de enunciados o
enciclopedias de los que los humanos disponemos en todo momento, Popper observa el
encubrimiento de un psicologismo inaceptable, como lo atestigua el hecho de que, “aparezca,
juntamente con las palabras ‘percibe’, ‘ve’ y otras análogas, el nombre del autor” del
enunciado. Aunque el blanco de la discusión sea la concepción de los enunciados de protocolo,
el desacuerdo profundo entre
Popper y Neurath tiene que ver con el objetivo que uno y otro procuran en el análisis teórico
de la comprensión de la ciencia.

La teoría de la ciencia de Neurath

Nuestra teoría de la ciencia debe ofrecer, según Neurath, una comprensión de los mecanismos
de justificación de las creencias científicas. Con su caracterización de los enunciados de
protocolo Neurath pretende eliminar cualquier sugestión “ontológica” (realista) y absolutista
subyacente a ellos. De ese modo, la teoría de la ciencia se concibe como análisis del lenguaje
científico inmunizado del peligro del realismo conceptual (que pretende hablar de la existencia
de determinadas entidades) y orientado en el problema de la legitimidad de sus enunciados.
Volvamos a la discusión sobre los enunciados de protocolo. Popper y Neurath coinciden en que
nunca podemos llegar a identificar ningún fundamento observacional sólido. Pero a partir de
aquí comienza la divergencia. Porque para fundamentar empíricamente la objetividad de la
ciencia la forma de los enunciados de protocolo de Neurath es, según Popper, completamente
inocua: Está muy extendida la creencia de que el enunciado “veo que esta mesa es blanca”
posee una ventaja radical –desde el punto de vista epistemológico– sobre este otro: “esta mesa
es blanca”. Pero con la mira puesta en la evaluación de sus posibles contrastaciones objetivas,
el primer enunciado, que habla de mí, no parece más seguro que el segundo, que habla de la
mesa que está aquí.
La primera opción sólo interesa al psicólogo, no al epistemólogo orientado en las cuestiones de
las conexiones lógicas existentes entre los enunciados científicos y en la evaluación de sus
contrastaciones. En su crítica al falsacionismo, sin embargo, Neurath orienta la teoría de la
ciencia, vale decir, la teoría de la justificación de las creencias científicas en la estabilidad de los
enunciados. Y en esa vena, la forma de los enunciados de protocolo es determinante pues,
para nosotros tales enunciados de protocolo tienen la ventaja de una mayor estabilidad.
Podemos continuar usando el enunciado “En el siglo XVI las personas veían espadas de fuego
en el cielo”, mientras que se suprimiría el enunciado “Había espadas de fuego en el cielo”.
Los enunciados de protocolo se integran en colecciones de enunciados que constituyen el
lenguaje científico. El lenguaje de la ciencia es un lenguaje de naturaleza no formal, fisicalista,
es decir, un lenguaje expresado en una terminología espacio-temporal. Es un lenguaje que
contiene expresiones imprecisas y vagas (“aglomeraciones”) porque en él se encuentran
también, como acaba de verse, enunciados de protocolo que formulan percepciones
expresadas en términos vagos, términos del lenguaje cotidiano. Ello aleja al lenguaje fisicalista
del lenguaje
transparente, exacto, cartesiano, que sólo puede ser construido localmente, en el interior de
marcos lingüísticos concebidos para formular problemas de cálculo.
Así pues, no sólo no es admisible estipular una suerte de tabula rasa, una base segura para el
lenguaje científico, sino que, además, ese lenguaje no es construible como un lenguaje exacto
cartesiano, porque nuestro propio proceso de investigación genera aglomeraciones dotadas de
una transparencia y estabilidad limitadas. En esas aglomeraciones se combinan términos del
lenguaje corriente y del lenguaje científico avanzado. Ésta es una condición definitiva del
lenguaje de la ciencia, no una condición contingente que podría aproximarse, reemplazándolo
por un lenguaje cada vez más sistemático, al lenguaje transparente exacto. El lenguaje de la
ciencia es una jerga universal irreducible al lenguaje exacto. Pero simultáneamente es
diferente del lenguaje corriente porque contiene términos precisos, ausentes en este último.
Carnap y Popper se adhieren a una concepción del lenguaje cartesiano de la ciencia construido
según los criterios de transparencia y sistematicidad. La transparencia expresa el correlato
terminológico de las ideas claras y distintas cartesianas. El sistema se constituye como el
modelo del lenguaje para la ciencia.
La teoría de la ciencia de Neurath explota, sin embargo, esta caracterización del lenguaje
científico para ofrecer, a partir de ella, una teoría del conocimiento científico de nueva raíz, en
la que, frente al modelo de sistema para la ciencia se propone un modelo de enciclopedia. Las
ciencias son colecciones de enunciados que no pueden aislarse en compartimentos estancos.
Todas las ciencias están estrechamente conectadas entre sí, hasta el punto de que podemos
considerarlas como parte de una ciencia única, una ciencia unificada cuyo lenguaje es la jerga
universal, que trata de astros, de plantas, de naciones, de seres humanos..., en suma, una
ciencia única que representa una “historia cósmica” con una agregación de enunciados, parte
de los cuales se utilizan cada vez que se trata de analizar ciertas correlaciones en un campo u
otro de estudio. La propuesta de Neurath se orienta, por tanto, en una dirección claramente
histórica: la elección de una colección de enunciados, es decir, de una enciclopedia, está
determinada por las condiciones sociales e históricas. Porque el lenguaje de la enciclopedia,
con sus aglomeraciones, pertenece inextricablemente al ámbito de la práctica. Las
aglomeraciones manifiestan la intrusión del “mundo” en el dominio lingüístico. Las
aglomeraciones proporcionan los vínculos entre la ciencia y el mundo de la vida como soporte
que motiva a aquélla.
El modelo de sistema para la ciencia es el equivalente metodológico del absolutismo cultural,
es decir, de la tendencia a crear tipos ideales (Weber) y abstracciones hipostásicas como el
homo economicus o el sensorium dei de Newton. Esta actitud se ejemplifica perfectamente en
el determinismo laplaciano que estipula un ser sobrehumano en condiciones de prever los
desplazamientos futuros de todos los cuerpos, una vez conocidas las posiciones presentes y las
fórmulas que describen sus movimientos. En el campo metodológico esta exigencia se expresa
en la creencia en la consecución posible de un sistema-modelo para la ciencia. Popper es un
adherente de este modelo. Pero, en realidad, sólo podemos disponer de complejos o conjuntos
de enunciados que se muestran más o menos adecuados a la enciclopedia-modelo que el
científico adopta en cada momento de su investigación. A diferencia del pseudorracionalismo,
un racionalismo consciente de sus límites no puede olvidar la naturaleza constructiva,
provisional y pragmática del conocimiento científico. La práctica científica no se orienta, según
Neurath, en la construcción de un único sistema científico, sino en el “arte” de construir
lenguajes científicos concurrentes. Esos lenguajes (“esquemas”, “modelos”) contribuyen a los
fines bien limitados del análisis, en cuanto que ofrecen instrumentos para la deducción y el
cálculo, pero es incorrecto derivar de ello un objetivo situado más allá, en especial, una
sobrevaloración que incurra en el ideal del sistema-modelo pseudorracionalista. La teoría de la
ciencia de Neurath subraya el carácter pluralista, incompleto y antisistemático de la ciencia
unificada, una ciencia que no se orienta hacia un modelo de sistema ideal, sino que propone la
imagen de que la ciencia procede mediante sistematizaciones locales, buscando siempre
restablecer la coherencia continuamente comprometida con la incorporación de nuevos
enunciados.

El pseudorracionalismo falsacionista

El ejemplo arquetípico de pseudorracionalismo, esto es, de un racionalismo no consciente de


sus limitaciones, es la metodología propuesta por Popper. Esa metodología sólo funciona si se
toma el sistema como modelo de la ciencia. Sólo sobre el sistema puede aplicarse la regla del
modus tollens falsacionista. Pero, según Neurath, ésta es una manera extremadamente
simplista
de encapsular normativamente la práctica científica. Tiene además el efecto pernicioso de
aniquilar enunciados que pueden contribuir al desarrollo del conocimiento científico.
Considérese, por ejemplo, el caso favorito de la prueba popperiana del rendimiento de su
metodología: el psicoanálisis. A su juicio, esa teoría es un arquetipo de mala metafísica, que no
resiste la prueba de fuego de la metodología falsacionista. Neurath, por el contrario, justifica su
admisibilidad en términos de la estabilidad que sus enunciados procuran en las enciclopedias
en las que se integran. El criterio parece ser: si una teoría es útil para nuestra enciclopedia en
un determinado momento, es admisible. Teorías metafísicas en sentido popperiano pueden ser
más fecundas que teorías científicas ya superadas por el desarrollo del conocimiento. Porque,
se pregunta Neurath, ¿para qué sirve, por ejemplo, una “psicología de la motivación” sin
metafísica que pone sistemáticamente en relación la acción con los “objetivos” y las
“motivaciones” de la acción formulados por quien actúa? Cuánto más útil es una teoría de las
motivaciones no conscientes de nuestra acción expuesta de manera metafísica. Una metafísica
del inconsciente está sustancialmente más próxima de la sociología moderna que una
psicología
de la motivación sin metafísica. Algunas veces la estructura de una teoría impregnada de
metafísica concuerda con la estructura de una teoría fisicalista posterior aceptada con rango
general. Naturalmente no siempre es fácil reconocer históricamente semejantes analogías
entre estructuras.
En realidad, el científico fija sus creencias de manera muy distinta al canon normativo
popperiano. El científico confronta todo nuevo enunciado de protocolo producido en el interior
de su enciclopedia o próximo a ella con los enunciados de protocolo y no-protocolo que
dispone. Entonces, si se presenta una contradicción cuyo mantenimiento conduciría a una falta
de sentido, o bien se elimina el nuevo enunciado o bien se modifica la estructura existente. Si
se acumulan nuevos enunciados protocolares como instancias contradictorias, entonces se
modificará la masa de enunciados heredada.
Pero el científico mostrará siempre resistencia a abandonar su teoría ante una instancia
negativa.
¿No puede interpretarse esta propuesta en un sentido próximo al del falsacionismo refinado de
Lakatos? No, porque no existen aquellas entidades epistémicas –los sistemas científicos– que
se requieren para la aplicación de las herramientas conceptuales y metodológicas (grado de
corroboración, contenido empírico, etc.) de la teoría falsacionista, en cualquiera de sus
versiones. En este sentido la coincidencia del falsacionismo con el verificacionismo es absoluta.
A diferencia de ellos, nuestra comprensión de la ciencia debe procurar una teoría de la
justificación de la aceptación y rechazo de creencias científicas alejada de la racionalidad
absoluta del pseudorracionalismo. Neurath sugiere entonces una teoría de la quiebra teórica:
Allí donde Popper puede reemplazar la “verificación” por la “corroboración” de una teoría,
podemos nosotros reemplazar la “falsación” por la “quiebra” de una teoría, porque el
investigador, al elegir una determinada enciclopedia (caracterizada habitualmente mediante
determinadas teorías de una gran generalidad que faltan en otras enciclopedias disponibles),
no sacrifica inmediatamente una teoría por cualquier resultado negativo, sino que reflexiona
de diversas maneras qué le podría aportar todavía en el futuro la enciclopedia que abandonara
junto con esa teoría. Los resultados negativos pueden quebrar la confianza respecto de una
enciclopedia, pero no pueden reducirla a cero, “automáticamente”, por así decirlo, aplicando
ciertas reglas.
La crítica de Neurath al pseudorracionalismo del sistema y de la idea subsidiaria de un sistema
completo omnicomprensivo para todo el conocimiento científico es el primer eslabón de una
concepción novedosa del conocimiento científico, que se proyecta en la estipulación de una
enciclopedia no jerárquica y flexible, como modelo apropiado para una ciencia orientada a
cumplir los fines ilustradores del Círculo de Viena. Porque el auténtico radicalismo de la imagen
científica del mundo que procuró el Círculo reside justamente en la reconceptualización de la
función y tarea sociales de la ciencia, articulada en la tentativa de una democratización radical
de la ciencia y en la sistemática búsqueda de conexión entre la ciencia, la educación y la vida
cotidiana. Es la novedad radical que se expresa en la evocación publicada en 1928 por Carnap
en el prólogo a La construcción lógica del mundo, que anuncia una nueva actitud superadora
del pasado metafísico: Un modo de pensar que exige claridad en todas las cosas, pero que, sin
embargo, reconoce que el entretejido de la vida nunca nos será completamente transparente.

Pseudorracionalismo de la falsación

Popper cierra el camino para una plena valoración de la práctica y la historia de la investigación
mediante una determinada forma de pseudorrealismo. Es decir, él no toma la ambigüedad de
las ciencias positivas como fundamento de sus consideraciones, sino que, siguiendo en cierto
modo al espíritu laplaciano, tiende a un único sistema distinguido de enunciados como
paradigma de todas las ciencias positivas.
Popper sigue ciertas ideas fundamentales que han sido desarrolladas en el seno del Círculo de
Viena. Las ideas fundamentales a las cuales se acerca en su conjunto la postura de Popper son
aproximadamente éstas: si analizamos lógicamente las ciencias positivas como masas de
enunciados, partimos del hecho de que todos los enunciados positivos que son similares a
aquellos que se construyen en la física pueden ser modificados, y también pueden serlo en
ciertas circunstancias los “enunciados protocolares”. En los intentos de lograr masas no
contradictorias de enunciados apartamos ciertos enunciados, modificamos otros, sin poder
partir por ello de “enunciados atómicos” absolutos o de otros elementos definitivos.

Los modelos de Popper

Si bien en general Popper mantiene puntos de vista semejantes a los anteriores y evita así
ciertos errores, utiliza en cierto modo, por otro lado, como modelos de las ciencias positivas
teorías bien abarcables, constituidas por enunciados nítidos. Mediante la forma de sus
“enunciados de base” se determina qué debe considerarse como enunciado empírico, es decir,
“falsable”. Según él, las teorías se contrastan por medio de enunciados de base precedentes
admitidos provisionalmente. Se rechazan si esos enunciados de base “corroboran una hipótesis
falsadora”. La falsación constituye por lo tanto el fundamento de todas las demás
consideraciones de Popper. Sus pensamientos giran constantemente alrededor de un
determinado ideal que él ciertamente no indica como alcanzable, pero que utiliza, por así decir,
como modelo cuando quiere explicitar qué significa que un sistema científico-empírico fracasa
ante “la” experiencia. A esta situación se adecuaría una teoría mediante la cual se identificara
“‘nuestro mundo particular’, ‘el mundo de nuestra realidad experiencial’, con la máxima
exactitud alcanzable por una ciencia teórica. ‘Nuestro mundo’ se describiría con medios
teóricos: se caracterizarían como permitidos aquellos procesos y clases de eventos, y sólo ellos,
que encontráramos realmente”.

Enciclopedias como modelos

Por nuestra parte, procuramos utilizar modelos que no requieren pensar desde el principio en
un ideal de ese tipo. Partimos de masas de enunciados que sólo en parte están conectados
sistemáticamente, y que también sólo parcialmente abarcamos. Las teorías se sitúan junto a las
comunicaciones singulares. Mientras que el investigador trabaja con la ayuda de una parte de
esa masa de enunciados, otros introducen añadidos que aquél está dispuesto a aceptar por
principio, sin calcular del todo las consecuencias lógicas de esta decisión. Los enunciados de la
masa de enunciados con los cuales se trabaja realmente utilizan muchos términos imprecisos,
de manera que sólo como abstracciones pueden destacarse los “sistemas”. Los enunciados se
conectan entre sí a veces más estrechamente, otras más débilmente. La conexión total no es
transparente, si bien en determinados lugares se intentan deducciones sistemáticas. Esta
situación no provoca de ningún modo la idea de un “regreso al infinito”, mientras que Popper
debe rechazarla especialmente en determinada conexión. Si se quiere decir que Popper parte
de sistemas-modelo, puede decirse que por nuestro lado partimos de enciclopedias-modelo,
con
lo cual se quiere expresar desde el principio que no ponemos como base de nuestra
consideración sistemas de enunciados nítidos.

Ningún método general de la “inducción” y del “control”

Creemos hacer justicia de la mejor manera al trabajo de investigación cuando en nuestra


construcción de modelos partimos del supuesto de que siempre pueden ponerse en discusión
la masa entera de enunciados y todos los métodos.
Pretendemos de un empirista sencillamente que acepte sólo las enciclopedias en cuyo seno las
predicciones deban concordar con enunciados protocolares, pero también podríamos ser
conducidos en nuestro trabajo a modificar algo la forma de los enunciados protocolares. Ahora
bien, mientras que la forma de los enunciados protocolares puede fijarse previamente de algún
modo, los enunciados protocolares singulares significativos para una determinada
enciclopedia, que funcionan como enunciados de control, no pueden ser distinguidos de
manera previa. Se piensa de manera más adecuada al considerar el modelo que en el trabajo
científico se utilizará efectivamente una de las distintas enciclopedias que consideramos
consistentes. De este modo, al aceptar una determinada enciclopedia se ha aceptado también
con ella determinadas teorías, hipótesis, predicciones y sus enunciados de control.
Elementos diversos determinan al investigador metódico en la elección de nuestro modelo.
Negamos que se pueda eliminar lógicamente la enciclopedia preferida por un investigador
mediante un método delineable de manera general. Con esto no negamos sólo que puedan
darse métodos generales de la “inducción” para las ciencias positivas, sino también que
puedan darse métodos generales de “control” –sin embargo, es justamente la posibilidad de
tales métodos generales de “control” lo que Popper defiende–. Según nuestro punto de vista,
“inducción” y “control” están relacionados más estrechamente que para Popper. Ahora bien, si
rechazamos el
modelo de que la ciencia es un sistema cerrado con tales métodos generales, nos encontramos
aún sin embargo en la idea de que toda representación de la investigación científica debería
procurar presentar de la manera más explícita posible los métodos particulares utilizados y,
sobre todo, evaluar adecuadamente toda elaboración de los sistemas teóricos en el seno de
una enciclopedia. De aquí resulta quizá, que ciertas argumentaciones de Popper, que adelantan
la pretensión de máxima generalidad, tienen un valor singular para problemas particulares de
la investigación en un dominio más restringido, como al que aquí nos referimos. El mismo
Popper en sus ataques a los trabajos de Reichenbach parece olvidar completamente que éstos,
a pesar de su tendencia a establecer una teoría general de la inducción, son verdaderamente
muy valiosos para la investigación científica en un marco más limitado.

Quiebra junto a corroboración

Mientras que Popper no quiere tratar lógico-sistemáticamente la “inducción”, esa “anticipación


no fundamentada”, ni siquiera en sus formas particulares, intenta caracterizar la falsación
como método general con el máximo rigor lógico –aunque deba admitir que no es realizable de
manera precisa–, para fundar a partir de aquí toda la lógica de la investigación de manera
unitaria.
Allí donde Popper reemplaza la “verificación” por la “corroboración” de una teoría, nosotros
reemplazamos la “falsación” por la quiebra de una teoría, porque el investigador, al elegir una
determinada enciclopedia (caracterizada habitualmente mediante determinadas teorías de una
gran generalidad que faltan en otras enciclopedias disponibles), no sacrifica inmediatamente
una teoría por cualquier resultado negativo, sino que reflexiona de diversas maneras qué le
podría aportar todavía en el futuro la enciclopedia que abandonara junto con esa teoría. Los
resultados negativos pueden quebrar su confianza respecto de una enciclopedia, pero no
pueden reducirla a cero, “automáticamente”, por así decirlo, aplicando ciertas reglas.
Podemos imaginar muy bien que una hipótesis falsable, que según Popper consideraríamos
como “corroborada”, es dejada de lado por un científico exitoso porque éste, sobre la base de
serias y muy generales consideraciones, la entiende como un freno del desarrollo científico,
siendo éste el que mostrará cómo debe rechazarse esta objeción. Aunque tal decisión pueda
parecer difícil, en ningún caso encuentra apoyo en la tendencia fundamental de Popper a
pensar siempre en las partes como magnitudes falsables y no en la enciclopedia en su
conjunto.
Cuando una concepción global heredada está amenazada, Popper está fundamentalmente del
lado del atacante, por decirlo así. Sería muy interesante mostrar de qué tipo son los
movimientos de defensa de los practicantes en esos casos. Son los practicantes de la
investigación los que en primer lugar se molestan sensiblemente por tal cambio. En contra de
ello, Popper ve la oposición principal no en esos practicantes y en sus consideraciones
generales, sino en los convencionalistas. Aquí él describe un tipo de convencionalismo que
quizá se discute entre los filósofos de escuela, quizá se encuentra ocasionalmente entre
teóricos filosofantes, pero difícilmente caracteriza a personas de la práctica investigadora. Esto
debería discutirse con la ayuda de la historia de las ciencias positivas.
Lo que puede llevar a un investigador prudente a aceptar una enciclopedia con determinadas
teorías se puede expresar generalmente sin el recurso a la “simplicidad” de Popper, aunque sus
observaciones sobre este asunto fueran por lo demás valiosas. La preferencia incondicionada
por la falsación no puede mantenerse con éxito en el marco de una teoría de la investigación.
Junto a la corroboración ponemos la quiebra y buscamos presentarlas en su tipo de la manera
más explícita posible, caso por caso.

Enunciados existenciales indefinidos-legítimos

Como Popper parte del “modus tollens” de la lógica clásica como su paradigma, caracteriza los
“enunciados singulares universales” (es decir, los “enunciados existenciales indefinidos”) como
“enunciados metafísicos”, esto es, como enunciados no-empíricos, porque no serían falsables.
Sin embargo, vemos cuán provechosos son en la historia de las ciencias y podemos esbozar una
teoría de la investigación en la que ellos desempeñen un papel legítimo.
Para poder aplicar su paradigma de la manera menos entorpecida posible, Popper propone
interpretar las “leyes de la naturaleza” no como enunciados de generalidad puramente
“numérica” sino como enunciados de generalidad “específica”. Creemos que una teoría de la
investigación debería formular sus métodos de manera tan tolerante como para poder
satisfacer tanto a los investigadores que por especial prudencia formulan todas las leyes para
un dominio limitado o tratan el mundo como finito (como el mismo Popper menciona) como a
los investigadores que por alguna razón prefieren justamente formulaciones de generalidad
específica, como tiene en mente Popper. En astronomía, en geología, en sociología y en otras
muchas disciplinas en las que el experimento (por Popper sobrevalorado) desempeña un papel
limitado, tales enunciados existenciales indefinidos son, como predicciones decidibles
unilateralmente, parte constitutiva de la investigación normal –naturalmente, esto es más raro
en la óptica o en la acústica–. Si decimos, por ejemplo, que en un día futuro podremos
observar un cometa en una determinada posición, tenemos “ante nosotros un enunciado
decidible sólo unilateralmente. Esto es, si el enunciado es verdadero, llegará el día en el que
podremos decidir que es verdadero, pero si no es verdadero, nunca llegará el día en el que
podremos decidir que es no-verdadero”. Puede ser muy importante que un investigador
explore, por ejemplo, una determinada región del cielo porque una confirmación de su
predicción de que allá regresará un cometa corroboraría nuevamente una teoría muy audaz,
para la que en un futuro próximo no parece posible ninguna falsación en el sentido de Popper.
Así como asigna a la metafísica estos “enunciados singulares universales”, Popper se ve
inclinado también a incluir en las “regiones metafísicas” los modelos que no conducen
inmediatamente a la “falsación”. Popper incluye, por ejemplo, entre las “ideas metafísicas” a la
vieja teoría corpuscular de la luz, mientras que nosotros incluiremos en la serie de modelos
científicos un modelo que muestre por ejemplo, aunque sea de manera vaga, que
determinadas correlaciones de, por ejemplo, fenómenos luminosos, que conocemos por
nuestra enciclopedia, sin conexiones teóricas especiales, pueden ser deducidas según el tipo
de determinados presupuestos más generales, por ejemplo, de una teoría corpuscular. Según
nuestra perspectiva, entre estos modelos más imprecisos y los más definidos de nuestra ciencia
existen innumerables niveles intermedios. Nosotros no conocemos la línea que separa las
teorías “falsables” de las “no falsables”. Buscamos únicamente discutir lo más explícitamente
posible las “corroboraciones” y “quiebras”.

Ciencias positivas sin experimentos

A Popper no le es suficiente que los enunciados de las ciencias positivas sean contrastables
potencialmente según su forma (queda por ver si esa forma es precisable con rigor), esto es,
que según nuestra concepción sean “no metafísicas” (especialmente Carnap), sino que enfatiza
sobremanera que deben ser contrastables también actualmente. Ésta es una propuesta
restrictiva que no entendemos conveniente para la teoría de la investigación. “Todo enunciado
científico empírico debe ser presentado, mediante la indicación del orden experimental y otras
indicaciones semejantes, en una forma tal que cualquiera que domine la técnica del ámbito en
cuestión, sea capaz de revisarlo”. La sobredimensión de la “falsación” lleva también a Popper a
ver la práctica de la investigación exclusivamente desde el punto de vista de que “el teórico
formula problemas bien definidos al experimentador, quien busca con sus experimentos
alcanzar una decisión para esos problemas y sólo para ellos”. Las colecciones de materiales
(fotografías del cielo, etc.), los diarios de viaje (muy instructivo precisamente para este
problema es el diario que llevaba Darwin mientras realizaba sus viajes alrededor del mundo)
deben partir naturalmente de ciertas orientaciones teóricas para que pueda elegirse entre los
enunciados posibles, pero esas orientaciones teóricas no son de ninguna manera idénticas a
los estrictos planteos de problemas de la teoría, que son los que de alguna manera fuerzan
según Popper a la “falsación”. Él habla con cierto desprecio de aquel “método legendario del
avance desde la observación y el experimento hasta la teoría (un método con el cual algunas
ciencias intentan trabajar aún, creyendo que éste sería el método de la física experimental)”.
Sin embargo, cuánto material etnográfico debe acumularse a menudo antes de llegar a una
teoría, y con cuánta frecuencia debe describirse sistemáticamente un grupo de procesos en
física, antes de que se lo pueda clasificar. Recuerdo la voluminosa literatura sobre el
“magnetismo de la rotación” en los años veinte del siglo XIX. Se disponía de datos precisos,
sobre los cuales podía predecirse, por ejemplo, cómo se movería una aguja magnética si se
hacía rotar un disco de cobre, sin que se hablara de una integración de esas formulaciones en
una teoría más general. Gran parte del amplio material de observación recogido contra el
cuanto elemental eléctrico mencionado por Popper podrá quizá más adelante integrarse
teóricamente; por el momento, sin embargo, un conjunto de enunciados de observación que
parecen contradecir la teoría cuántica elemental no son interpretados como “quiebras”
esenciales, precisamente porque se consideran muy significativas las “corroboraciones” de la
teoría cuántica elemental. Popper, por el contrario, querría ver decisiones fuertes también
sólidamente fundamentadas. Esta es una orientación fundamental de muchas tendencias
pseudorracionalistas que deberían ser explicadas quizá con la “psicología de la decisión”. Las
personas que realizan una determinada acción sobre la base de una decisión, frecuentemente
no encuentran satisfactorio haber llevado a la acción tal decisión después de haber evaluado
muchas circunstancias singulares; si no pueden llegar a ninguna aprobación “trascendente”,
querrían poder aducir al menos una deducción lógica unívoca como justificación. Mientras que
nosotros por nuestra actitud vacilamos entre la decisión de interpretar algo como una
“quiebra” grave o la de ignorarla por el momento, para poder seguir con el trabajo previsto
como investigadores, frecuentemente las argumentaciones
de Popper aluden claramente a una actitud más absoluta: “Si una decisión ha sido negativa, si
las consecuencias han sido falsadas, su falsación atañe también al sistema del que se han
deducido” –como si existiera un sistema que pudiera ser delimitado de manera tan neta que
permitiera proceder de esta manera–. Es comprensible que con semejante actitud Popper deba
sobrevalorar la utilidad del concepto de “grado de falsabilidad” en el análisis del trabajo de
investigación. A partir de esta actitud general bien se explica por qué habla Popper con tanto
gusto del “experimentum crucis”, a pesar de todas las advertencias de Duhem: “Así pues, en
general consideramos definitiva una falsación comprobable intersubjetivamente
(adecuadamente garantizada desde el punto de vista metodológico); precisamente en esto se
expresa la asimetría entre la verificación y la falsación de las teorías. Estas relaciones
contribuyen de modo peculiar al carácter aproximativo del desarrollo de la ciencia”. Más arriba
hemos caracterizado como dudoso ese “carácter aproximativo”. Popper sostiene, por ejemplo,
que los “efectos ocultos” no deben ser tomados demasiado en serio porque no siempre son
reproducibles. A esto podría objetarse que existe una gran cantidad de efectos no
reproducibles, pero bien documentados, que están bien anclados en las teorías y que se toman
muy en serio. Por el contrario, las investigaciones “ocultas” no representan ningún progreso
auténtico; con frecuencia se realizan mediante el engaño, etc. Pero éstas son argumentaciones
que no derivan de la sobrevaloración del experimento como Popper pretende. Podemos
esbozar un modelo de desarrollo de la ciencia que no conozca por principio ningún
experimento; por ejemplo, siguiendo la metáfora de la caverna de Platón, que habla de los
prisioneros encadenados a la pared, que pueden predecir perfectamente sombras y voces, si
bien se les ha arrebatado toda posibilidad de experimento. De ninguna manera debe
infravalorarse el significado del método experimental; sólo se debe refutar la idea de que el
método experimental sea tan decisivo para
la ciencia, como debería seguirse de las consideraciones particulares de Popper y del conjunto
de su teoría de la falsación. El objetivo de este artículo es rechazar determinadas
argumentaciones de Popper que dan forma nueva al viejo absolutismo filosófico. Tampoco
queremos introducir la discusión sobre problemas de la probabilidad en Popper (sobre los que
Carnap, Hempel, Reichenbach ya han discutido) porque, aunque desempeñan un papel
relevante en su libro, no modifican la concepción fundamental. Parece, sin embargo, que por
su modo de proponer las cuestiones, también aquí se dificulta Popper el tratamiento de
determinados problemas de la investigación.

Enunciados de protocolo y fisicalismo

Interpretamos la no adecuación a la investigación empírica de la orientación del libro de


Popper como una consecuencia del hecho de que él ha elegido como paradigma el sistema
constituido por enunciados nítidos, y propone por ello la aplicación del “modus tollens”. Esta
simpatía por la nitidez parece entrar también en juego cuando Popper rechaza decididamente
nuestra propuesta de utilizar “enunciados de protocolo” como enunciados de control en la
enciclopedia-modelo. Los enunciados de protocolo –en forma más simple: “Protocolo de Karl:
(en la habitación hay una mesa percibida por Karl)”– fueron el resultado del intento de evitar
un “lenguaje de experiencia” particular (“lenguaje fenomenal”) y de hallar la suficiencia con el
lenguaje unificado del fisicalismo. Es importante también ver pronto que, de esta manera, el
material de base de las ciencias son enunciados complejos, menos nítidos –“aglomeraciones”–.
Popper se equivoca cuando sostiene que los enunciados de protocolo han sido pensados como
enunciados elementales. En esa forma, ellos son directamente una crítica contra los
enunciados elementales. (Carnap, que en este punto se aproxima a las propuestas de Popper,
utiliza el término “enunciados de protocolo” en un sentido algo distinto al que yo he solido
hacerlo.) Si, finalmente, los enunciados de protocolo son los enunciados de control de la
enciclopedia-modelo (esto no significa que se recurrirá siempre a ellos), entonces no hay
ningún motivo para
hablar de enunciados de control más complejos o menos complejos. Es extraño que Popper
piense: “es curioso que se presente la pretensión de asegurar los enunciados por medio de
enunciados de protocolo –para los enunciados lógicos se hablaría de psicologismo–, para los
enunciados empíricos se usa el nombre de ‘fisicalismo’”. Con ello parece olvidar que él mismo
interpreta los enunciados de protocolo como enunciados de base posibles, aunque poco
apropiados. Los enunciados de protocolo son de naturaleza distinta a la de los enunciados
lógicos; son ciertamente enunciados de las ciencias positivas, de tal manera que la
confrontación
con otros enunciados positivos les asegura desde un principio un significado, que no tienen si
se confrontan con los enunciados de la lógica. Los enunciados de protocolo, en la forma
propuesta por nosotros, tienen la ventaja de que pueden mantenerse tanto si se acepta la
expresión de dentro del paréntesis –considerada como enunciado independiente– como si se
la rechaza. Si se acepta el protocolo –el rechazo de un protocolo no ocurre con frecuencia–, y
juntamente con ello también la expresión entre paréntesis formulada de manera aislada,
entonces se puede caracterizar el protocolo como “enunciado real”; si, por el contrario, se
rechaza la expresión aislada entre paréntesis, entonces podemos caracterizar quizás el
protocolo como “enunciado de alucinación”. Popper cree que es “un prejuicio muy difundido
que el enunciado ‘Yo veo que la mesa de aquí es blanca’ presente alguna superioridad
epistemológica frente al enunciado ‘La mesa de aquí es blanca’”. Para nosotros tales
enunciados de protocolo tienen la ventaja de una mayor estabilidad. Podemos conservar el
enunciado “En el siglo XVI las personas veían espadas
de fuego en el cielo”, mientras que suprimiríamos el enunciado “Había espadas de fuego en el
cielo”. Precisamente la continuidad de las formulaciones juega un papel relevante en la
elección de las enciclopedia-modelos. Tal continuidad se basa en parte en el uso estable del
quaternio terminorum, lo cual contradice también toda nitidez, pero hace posible el enlace de
pueblo a pueblo, de época a época, de investigador a investigador. Cuando un primitivo dice:
“El arroyo corre a través del valle”, define ciertamente los términos de manera distinta a como
los europeos continúan usando el enunciado. Frente a esa imprecisión, la imprecisión de los
enunciados de protocolo juega un papel insignificante, si bien debe admitirse que los
enunciados de la física teórica –ciertamente sólo en la medida en que se utilizan como medio
para formular predicciones que son controladas mediante enunciados protocolares– infunden
una impresión de gran nitidez. No creemos que Popper, con su pretensión de introducir
“observable” como “un concepto de base indefinido, devenido suficientemente preciso
mediante el uso lingüístico” y de operar con términos como “macroscópico”, etc., pueda
dominar las dificultadas que surgen si, por ejemplo, se quiere pasar del trabajo de investigación
del físico experimental al del sociólogo o psicólogo.

Las teorías exitosas precedentes no son siempre aproximaciones de las posteriores

Para poder delinear un modelo de la historia de la investigación que dé cuenta de sus


característicos cambios, no se debe considerar la modificación de los enunciados de protocolo.
Por el contrario, es esencial el hecho de que se modifica el inventario de predicciones exitosas.
Si la teoría I ofrece el grupo A de buenas predicciones, y la teoría II el grupo A + B, podemos
llamar “más exitosa” a la teoría II, y decir que el inventario de predicciones A constituye una
aproximación al inventario de predicciones B, lo cual de ninguna manera significa que los
principios de la teoría I deban ser una aproximación de los principios de la teoría II más exitosa.
Esto es claro sin más desde un punto de vista lógico, pero esa aproximación no se da siempre al
menos históricamente. Creemos que podemos remitirnos a la actitud pseudoracionalista de
base de Popper cuando expresa: “Las teorías corroboradas sólo pueden ser superadas por
teorías más generales, es decir, mejor contrastables, las cuales contienen al menos como
aproximaciones a aquéllas corroboradas previamente”. Duhem, frecuentemente aludido por
Popper, muestra muy bien en qué escasa medida se pueden concebir los distintos estadios de
la teoría de la gravitación como “aproximaciones” de los respectivos estadios sucesivos. Por
mucho que Popper quiera explicar que la ciencia “no tiende en progreso continuo hacia un
estado de definitividad”, la cita transcrita arriba indica que él tiene en mente esta serie de
teorías cuando habla de la “creencia de que existen regularidades que podemos destapar y
descubrir”. Estas expresiones se compadecen con la tendencia general que hemos
caracterizado, que se desarrolla explícitamente en más de un lugar. Si queremos elegir entre
diversas “enciclopedias”, podemos servirnos permanentemente del lenguaje unificado del
fisicalismo, sin tener que utilizar esta terminología que se desliza hacia la metafísica, que
finalmente dando un rodeo introduce el término “mundo real”.

Pseudorracionalismo y filosofía

Desde el punto de vista histórico esta tendencia pseudorracionalista de Popper puede


interpretarse como una especie de residuo metafísico de la evolución de la “filosofía”, por
cuanto una concepción así no puede ser tomada del análisis de las ciencias positivas liberadas
de metafísica. Con esta conjetura histórica concuerda el hecho de que Popper defiende una
epistemología especial, junto a la lógica de la ciencia y a las ciencias positivas. Quizás esta
afinidad con esas tendencias metafísicas explique por qué Popper se muestra esencialmente
más benévolo frente a Kant y otros metafísicos que frente al grupo de pensadores que él
describe como “los” positivistas –ciertamente sin caracterizarlos suficientemente indicando un
sistema de pensamiento u ofreciendo un listado de nombres–. “El positivista no desea que,
más allá de los problemas de las ciencias empíricas ‘positivas’, existan todavía problemas
‘dotados de sentido’, que una ciencia filosófica, por ejemplo, una epistemología o una teoría
del método debieran tratar. El querría ver en los llamados problemas filosóficos,
‘pseudoproblemas’. Reiteradamente aparece una corriente ‘completamente nueva’ que
desenmascara definitivamente los problemas filosóficos como pseudoproblemas y contrapone
el sinsentido filosófico con la ciencia empírica dotada de sentido; y reiteradamente la
menospreciada ‘filosofía tradicional’ pretende aclarar a los representantes de estas corrientes
‘positivistas’ que el problema de la filosofía es justamente la investigación de aquella
experiencia que cualquier positivismo asume como dado sin mayor consideración”. Esta
defensa de la filosofía tradicional
permite esperar que a continuación se mostrará el importante papel que ella está llamada a
desempeñar como maestra del empirismo científico, que precisamente se ocupa
fundamentalmente de la eliminación de los “pseudoproblemas”. El pseudorracionalismo de la
concepción fundamental de Popper podría hacernos comprender mejor por qué él podría
sentirse atraído por la filosofía tradicional y su absolutismo, mientras su libro contiene tanto de
la técnica de análisis que el propio Círculo de Viena sostiene. Aquí no se trataba tanto de una
presentación completa de las ideas de Popper, sino de una crítica al absolutismo de la
falsación, que en muchos aspectos es una contraparte del absolutismo de la verificación
combatido por Popper. Justamente este libro, que está próximo al empirismo científico del
Círculo de Viena, muestra una vez más de manera totalmente inequívoca que el camino de la
ciencia no está aún
libre de los restos de sólida metafísica, que sólo se pueden superar mediante el trabajo
colectivo.
Neurath, O. – Proposiciones protocolares

En interés de la investigación, cada vez se precisan más formulaciones en el lenguaje unificado


de la ciencia unitaria. Sin embargo, ningún término de la ciencia unitaria está libre de
imprecisión; porque todos ellos se retrotraen a términos que son esenciales para las
proposiciones protocolares, la imprecisión de las cuales salta inmediatamente a la vista de
cualquiera. La ficción de un lenguaje ideal construido a partir de proposiciones atómicas puras
es tan metafísica como la ficción del demonio de Laplace. No puede considerarse al lenguaje
científico, cada vez más provisto de estructuras simbólicas sistemáticas, como una
aproximación a tal lenguaje ideal. La proposición ''Otto observa a una persona encolerizada" es
más imprecisa que la proposición "Otto observa una indicación termométrica de 24 grados",
por cuanto la expresión "persona encolerizada" puede definirse menos exactamente que
"indicación termométrica de 24 grados". Pero "Otto" mismo es un término impreciso en
muchos aspectos; la proposición "Otto observa" podría ser remplazada por la proposición "El
hombre, cuya fotografía, cuidadosamente tomada, está en el décimosexto lugar en el archivo,
observa"; con lo que, sin embargo, el término "fotografía en el décimosexto lugar en el
archivo" no ha sido sustituido aún por un sistema de fórmulas matemáticas que esté
unívocamente correlacionado a otro sistema de fórmulas matemáticas que tome el lugar de
"Otto", "Otto encolerizado", "Otto amable", y así sucesivamente. Nuestro lenguaje trivial
histórico se nos da de inmediato con una gran abundancia de términos imprecisos, no
analizados ("conglomerados"). Empezamos por limpiar ese lenguaje trivial de partes
componentes metafísicas y llegamos así al lenguaje fisicalista trivial. Una lista de las palabras
proscritas nos puede ser muy útil para ello en la práctica.
Junto al anterior está el lenguaje fisicalista altamente científico, que de antemano puede
considerarse como libre de elementos metafísicos. Disponemos de este lenguaje sólo para
determinadas ciencias; en algunos casos sólo para partes de ellas. Si se desea sintetizar la
ciencia unitaria de nuestro tiempo, tendremos que combinar términos del lenguaje trivial y del
lenguaje altamente científico, ya que en la práctica se entrecruzan los términos de ambos
lenguajes. Hay ciertos términos que sólo se usan en el lenguaje trivial. otros que sólo se
presentan en el lenguaje altamente científico y, finalmente, términos que aparecen en ambos
lenguajes. En consecuencia, en un tratado científico que toque el campo de la ciencia unitaria
en su conjunto sólo podrá utilizarse un "dialecto" que comprenda términos de ambos
lenguajes. Esperamos que cada palabra del lenguaje fisicalista trivial pueda ser remplazada por
términos del lenguaje altamente científico, así como que los términos del lenguaje altamente
científico puedan formularse también con la ayuda de los términos del lenguaje trivial. En
principio, un físico debe poder satisfacer la exigencia planteada por un pensador talentoso,
consistente en que "cada teoría estructurada científicamente debe hacerse comprensible, en
sus líneas fundamentales, a un cochero en el lenguaje propio de éste". El lenguaje altamente
científico y el lenguaje trivial ordinario coinciden hoy primordialmente en el dominio del
cálculo numérico. Pero en el sistema del fisicalismo radical, aun la formulación "2 por 2 igual a
4", una tautología, está ligada a proposiciones protocolares. Las tautologías se definen con
proposiciones que informan qué efecto tienen las tautologías, agregadas como estímulos
adicionales, en determinadas órdenes, bajo ciertas circunstancias. Por ejemplo, “Otto dice a
Carlos: ‘Sal cuando ondee la bandera y cuando 2 por 2 sean 4’”. La adición de la tautología no
altera aquí el efecto de la orden. Aun en el terreno del más estricto nivel científico, en la ciencia
unificada tan sólo podemos usar un dialecto universal. Como no hay aún en torno a él un
acuerdo, cada investigador interesado en estos problemas tiene que aportar por sí mismo, al
utilizarlo, términos nuevos para dicho dialecto. No hay forma de tomar oraciones protocolares
concluyentemente establecidas como punto de partida de las ciencias. No hay una tabula rasa.
Somos como navegantes que tienen que transformar su nave en pleno mar sin jamás poder
desmantelarla en un dique de carena y reconstruirla con los mejores materiales. Sólo los
elementos metafísicos pueden eliminarse sin dejar huella. De un modo u otro siempre quedan
“conglomerados lingüísticos” imprecisos como componentes de la nave.
Desde un principio enseñaremos a los niños el dialecto universal purgado de metafísica como
el lenguaje de la ciencia unificada históricamente trasmitida. El niño no aprende un dialecto
universal primario del que se deriva el dialecto universal de los adultos. Aprende un dialecto
universal “más pobre”, que se va enriqueciendo gradualmente. La expresión “esfera de hierro”
se usa tanto en el lenguaje de los adultos como en el de los niños. En el primero se define por
una proposición en la que aparecen términos tales como “radio” o “π”, en tanto que en la
definición infantil se usan expresiones como “juego de bolos”, “regalos del tío Rudi”, etc. Pero
“tío Rudi” tampoco está ausente del lenguaje de la ciencia rigurosa, si la esfera física se define
por medio de proposiciones protocolares en las que “tío Rudi” aparece como “el observador
que percibe una esfera”. Carnap, en cambio, habla de un lenguaje protocolar primario,
proposiciones protocolares que “no requieren confirmación”. Este “lenguaje primario”, lo
caracteriza como un “lenguaje referente a las vivencias inmediatas” o “lenguaje
fenomenalista”.
La ciencia unificada consta, si hacemos abstracción de las tautologías, de proposiciones
fácticas. Éstas se subdividen en: a) proposiciones protocolares y b) proposiciones no
protocolares. Las proposiciones protocolares son proposiciones fácticas de la misma forma
lingüística que el resto de ellas, sólo que en su caso siempre aparece varias veces un nombre
personal en una asociación específica con otros términos. Por ejemplo, una proposición
protocolar completa podría decir: “Protocolo de Otto a las 3 hs. 17 mn.: [la forma lingüística del
pensamiento de Otto a las 3 hs. 16 mn. era: (a las 3 hs. 15 mn. había en el cuarto una mesa
percibida por Otto)]”. Esta proposición fáctica está construida de tal manera, que tras la
eliminación de los paréntesis surgen nuevas proposiciones fácticas, las cuales, sin embargo, no
son proposiciones protocolares: "la forma lingüística del pensamiento de Otto a las 3 hs. 16
mn. era: (a las 3 hs. 15 mn. había en el cuarto una mesa percibida por Otto)'' y además: "a las 3
hs. 15 mn. había en el cuarto una mesa percibida por Otto". Cada uno de los términos
presentes en estas proposiciones, puede en cierto grado ser sustituido de antemano por un
grupo de términos del lenguaje altamente científico. En lugar de "Otto" puede introducirse un
sistema de determinaciones fisicalistas, y ese sistema de determinaciones puede, a su vez, ser
definido ulteriormente por referencia a la "posición" del nombre "Otto” en un grupo de signos
compuesto de los nombres "Carlos", "Enrique”, etc. Todas las palabras usadas en la proposición
protocolar anterior son palabras, bien sea del dialecto universal, o bien sea palabras que
pueden ser sustituidas de antemano sin más por palabras de dicho dialecto. Para que esté
completa una proposición protocolar, es esencial que aparezca en ella el nombre de una
persona. "Ahora alegría", o "Ahora círculo rojo", o "Un dado rojo está sobre la mesa", no son
proposiciones protocolares completas; ni como expresiones pueden tener una posición dentro
del conjunto interior de paréntesis angulares. De acuerdo con nuestra concepción deberían
decir cuando menos -lo que correspondería aproximadamente al "lenguaje infantil"- "Otto
ahora alegría", u "Otto ve ahora círculo rojo", u "Otto ve ahora dado rojo sobre la mesa". Esto
significa que la expresión encerrada dentro de los paréntesis angulares es, en una proposición
protocolar completa, una proposición que a su vez muestra un nombre personal y un término
del dominio de los términos de percepción. La extensión relativa en que los términos del
lenguaje trivial o del lenguaje altamente científico sean utilizados, carece de importancia, ya
que dentro del dialecto disponemos de una flexibilidad considerable de los usos lingüísticos.
La tesis de Carnap según la cual las proposiciones protocolares son aquellas “que no requieren
confirmación” será rechazada. El proceso de transformación de las ciencias consiste en que las
proposiciones que fueron utilizadas en una determinada época, desaparecen en otra, proceso
en el cual frecuentemente son sustituidas por otras. A veces se conserva también la expresión
lingüística, pero las definiciones se modifican. Cada ley y cada proposición física de la ciencia
unitaria o de una de sus ciencias fácticas puede sufrir tal transformación. Lo mismo vale para
cualquier proposición protocolar. En la ciencia unitaria tratamos de crear un sistema libre de
contradicción, el que consistiría en proposiciones protocolares y proposiciones no-protocolares
(incluidas las leyes). Por ejemplo, la proposición: “los leones cantan en África utilizando
solamente escalas del modo mayor”, podemos eliminarla como inútil (“falsa”) por estar en
contradicción con el sistema; o podríamos “aceptar” la proposición y en cambio modificar de
tal modo el sistema que, aumentando con esta proposición, conserve su no-contradictoriedad.
La proposición se denominaría, entonces, “verdadera”. La eliminación como destino puede
acaecerle también a una proposición protocolar, a diferencia de Carnap. Por ejemplo: un sabio
llamado Kalon que escribe simultáneamente con ambas manos, con la mano izquierda
escribirá: “Protocolo de Kalon a las 3 hs. 17 mn.: [la forma lingüística del pensamiento de Kalon
a las 3 hs. 16 mn. 30 seg., era: (a las 3 hs. 16 mn., sólo había en el cuarto un pájaro percibido
por Kalon)]”, mientras que simultáneamente escribirá con la mano derecha: “Protocolo de
Kalon a las 3 hs. 17 mn. 30 seg.: [la forma lingüística del pensamiento de Kalon a las 3 hs. 16
mn. 30 seg., era: (a las 3 hs. 16 mn., sólo había en el cuarto una mesa percibido por Kalon)]”. En
el sistema de la Ciencia Unificada, no podemos utilizar dos proposiciones protocolares
recíprocamente contradictorias. Aun cuando no es posible decidir aquí cuál de ellas debe ser
excluida o si deba serlo ambas, lo que sí es posible establecer es la seguridad de que no
pueden verificarse las dos, es decir, que el sistema no tolera la incorporación de ambas.
Establecimos que en tal caso, por lo menos una proposición protocolar debe ser excluida, ¿no
resultará esto igualmente necesario cuando la contradicción se presente entre una o varias
oraciones protocolares, por una parte, y un sistema que comprenda proposiciones
protocolares y proposiciones no-protocolares (leyes, etc.), por la otra? En opinión de Carnap,
sólo podríamos vernos obligados a modificar proposiciones no-protocolares y leyes. Nosotros
admitimos igualmente la posibilidad de eliminar proposiciones protocolares. Entre otras
características, la definición de una proposición exige su verificación y, por lo mismo, también
es susceptible de ser eliminada. La opinión de Carnap de que las proposiciones protocolares
“no requieren verificación”, como quiera que se la entienda, puede relacionarse sin dificultad
con la creencia en “vivencias inmediatas”, que es frecuente en la filosofía académica
tradicional. Según esa filosofía existen, en realidad, ciertos “elementos últimos” a partir de los
cuales se construye la “imagen del mundo”. De acuerdo con esta opinión académica, esas
“experiencias atómicas” se hallan, naturalmente, por encima de todo género de escrutinio
crítico: no requieren verificación. Carnap intenta introducir una especie de “protocolo atómico”
al plantear la exigencia de que en el procedimiento científico “debe hacerse una estricta
distinción entre la anotación de los datos del protocolo y la manipulación de las proposiciones
protocolares”, lo cual se lograría, “no aceptando en el protocolo proposiciones obtenidas
indirectamente”. La formulación que hemos dado anteriormente de una proposición protocolar
completa, muestra que, puesto que aparecen nombres personales en un protocolo, siempre
tienen que haberse realizado ya algunas “manipulaciones”. En todas las proposiciones fácticas,
y si no en ellas cuando menos en las hipótesis de las cuales se han derivado, aparecen términos
tales como “seres humanos”, “procesos de percepción” y otros de naturaleza menos primaria.
Todo lenguaje como tal es “intersubjetivo”. Los protocolos de un momento dado deben poder
incorporarse en los protocolos del momento siguiente. Por lo tanto, carece de sentido hablar
de lenguajes con el carácter de monólogo, como lo hace Carnap, o de diversos lenguajes
protocolares que posteriormente pueden ser relacionados entre sí.
En los escritos de Carnap encontramos también una enfatización del “yo” que nos es familiar
desde la filosofía idealista. En el dialecto universal tiene tan poco sentido hablar de un
protocolo “personal” como hablar de un “aquí” y un “ahora”. En el lenguaje fisicalista los
nombres personales son reemplazados, sencillamente, por coordenadas y coeficientes de
estados físicos. Puede distinguirse un “protocolo-de-Otto” de un “protocolo-de-Carlos”, pero
en el dialecto universal no es posible distinguir un “protocolo personal” de un “protocolo
ajeno”. Toda la problemática planteada por la existencia de “otras mentalidades” desaparece
de esta manera. El solipsismo “metodológico” y el positivismo “metodológico” no se vuelven
más utilizables sólo porque se les haya unido la palabra “metodológico”. La afirmación de
Carnap de que “cada sujeto sólo puede adoptar su propio protocolo como base
epistemológica” no puede admitirse, porque la argumentación que se presenta en su favor no
es sólida: “S1 puede, en realidad, utilizar también el protocolo de S 2; y esta utilización se vuelve
particularmente fácil debido a la incorporación de ambos lenguajes protocolares en el lenguaje
fisicalista. Pero la utilización es indirecta: S 1 tiene que decir en su propio protocolo que ve una
escritura de tal y tal forma”. De este modo podemos seguir tratando las proposiciones
protocolares de todo el mundo. Básicamente, no hay diferencia alguna en que Kalon trabaje
con los protocolos de Kalon o con los de Neurath, ni en que Neurath se ocupe en los protocolos
de Neurath o en los de Kalon. Cualquiera puede someter a prueba sus proposiciones
protocolares “personales”, lo mismo que las “ajenas”. En resumen: La Ciencia Unificada emplea
un dialecto universal en el cual tienen que aparecer también términos del lenguaje fisicalista
trivial. Puede enseñarse a los niños a emplear el dialecto universal, puesto que no empleamos
proposiciones protocolares “primarias” especialmente diferenciables ni “lenguajes protocolares
de diferentes personas” al lado de dicho dialecto. No tenemos empleo alguno para las
expresiones “solipsismo metodológico” y “positivismo metodológico” en la ciencia unificada.
No puede partirse de proposiciones protocolares puras, concluyentemente establecidas. Las
proposiciones protocolares son proposiciones fácticas del mismo orden que las otras, sólo que
contienen nombres personales o nombres de grupos de personas enlazados de manera
específica con otros términos, también utilizados en el dialecto universal. El Círculo de Viena se
consagra cada vez más a la tares de formular a la Ciencia Unificada (que abarca tanto la
sociología como la química, la biología como la mecánica, la psicología como la óptica) en un
lenguaje unificado, y a establecer las interconexiones de las diferentes ciencias, que con tanta
frecuencia se descuidan, de suerte que puedan relacionarse sin dificultad los términos de una
ciencia con los de otra. La palabra “hombre” que va ligada a “hacer enunciados” debe ser
definida exactamente del mismo modo que la palabra “hombre” que aparece en proposiciones
que contienen las palabras “sistema económico” y “producción”.
Hempel, C. – Problemas y cambios en el criterio empirista de significado

Introducción

El principio fundamental del empirismo moderno es la idea de que todo conocimiento no


analítico se basa en la experiencia. Llamemos a esa tesis el principio del empirismo. El
empirismo lógico contemporáneo le ha añadido la máxima según la cual una oración constituye
una afirmación cognoscitivamente significativa y puede, por lo tanto, decirse que es verdadera
o falsa únicamente si es, bien 1) analítica o contradictoria, o bien 2) capaz, por lo menos en
principio, de ser confirmada por la experiencia. De acuerdo con este criterio, llamado criterio
empirista de significado cognoscitivo, o de significatividad cognoscitiva, muchas de las
formulaciones de la metafísica tradicional y grandes partes de la epistemología resultan
carentes de significado cognoscitivo independientemente de lo fructíferas que resulten algunas
de ellas en sus connotaciones no cognoscitivas en virtud de su atractivo emocional o de la
inspiración moral que ofrecen. De igual manera, ciertas teorías que en un momento u otro
fueron formuladas en la ciencia empírica o sus disciplinas auxiliares, están presentadas de tal
forma, que resulta imposible verificarlas con cualquier prueba concebible; en consecuencia,
son calificadas de pseudohipótesis, que no afirman nada y que, por lo tanto, no tienen ninguna
fuerza explicativa o predictiva.

Cambios en el criterio de verificabilidad del significado empírico

El criterio empirista de significado impone el requisito de verificabilidad mediante la


experiencia, para aquellas oraciones cognoscitivamente significativas que no sean ni analíticas
ni contradictorias; llamémoslas oraciones con significado empírico, o con significatividad
empírica. El concepto de verificabilidad, que es hacer precisa la vaga noción de descansar -o
más bien, de poder descansar- en la experiencia, ha sufrido diversas modificaciones que
reflejan un análisis cada vez más agudo de la estructura del conocimiento empírico.
Hay tres conceptos auxiliares, a saber, el de característica observable, el de predicado
observacional y el de oración observacional. Una propiedad o una relación de objetos físicos
será llamada característica observable si, en las circunstancias adecuadas, su presencia o
ausencia en un caso dado puede determinarse mediante observación directa. Así, los términos
“verde”, “blanco”, “líquido”, “más largo que”, designan características observables, mientras
que no sucede esto con “bivalente”, “radioactivo”, “mejor conductor eléctrico” e “introvertido”.
Los términos que designan características observables se llamarán predicados observacionales.
Finalmente, por oración observacional, entenderemos cualquier oración que -correcta o
incorrectamente- afirme de uno o más objetos específicamente nombrados, que tienen o
carecen de determinada característica observable. Por ejemplo: “La Torre Eiffel es más alta que
los edificios vecinos”, “El indicador de este instrumento no llega al punto marcado ‘3’ en la
escala”, e incluso “El mayor dinosaurio en exhibición en el Museo de Historia Natural de Nueva
York tenía la lengua azul”, ya que esta última oración asigna a un objeto determinado una
característica de tal índole -la de tener la lengua azul- que, en circunstancias adecuadas (por
ejemplo, en el caso de mi perro), puede averiguarse por observación directa su presencia o
ausencia. Nuestro concepto de oración observacional está destinado a proporcionar una
interpretación precisa de la vaga idea de una oración que afirma algo que “en principio” puede
establecerse mediante observación directa, aun y cuando pueda ocurrir que no sea posible que
yo lo observe, quizá tampoco mis contemporáneos, e incluso tal vez ningún ser humano que
haya vivido o llegue a vivir. Cualquier prueba que pueda aducirse en la verificación de una
hipótesis empírica puede considerarse ahora como expresada en oraciones observacionales de
esta clase.
Cambios operados en el concepto de verificabilidad, y por lo tanto en el de significado
empírico. En los primeros tiempos del Círculo de Viena se decía que una oración tenía
significado empírico si era posible, al menos en principio, de verificación completa por medio
de la observación, es decir, si podía describirse una prueba observacional tal que, de alcanzarse
realmente, establecería de modo concluyente la verdad de la oración. (Originalmente, se
entendía que la prueba aceptable se limitaba a lo observable por el interlocutor y quizás sus
semejantes en el transcurso de sus vidas. Elaborado de esta manera, el criterio excluye, como
oraciones carentes de significado cognoscitivo, todos los enunciados sobre el futuro lejano o el
pasado remoto. Esta dificultad queda superada, sin embargo, si permitimos que la prueba
consista de un conjunto finito cualquiera de “datos de observación lógicamente posibles”,
formulado cada uno de ellos en una oración observacional. Así, por ejemplo, la oración S 1: “La
lengua del mayor dinosaurio del Museo de Historia Natural de Nueva York era azul o negra”, es
completamente verificable en nuestro sentido, porque es una consecuencia lógica de la oración
S2: “La lengua del mayor dinosaurio del Museo de Historia Natural de Nueva York era azul”, y
ésta es una oración observacional). Con ayuda del concepto de oración observacional,
podemos reformular este requisito del modo siguiente: Una oración S tiene significado
empírico si, y sólo si, es posible indicar un conjunto finito de oraciones de observación O1, O2...
On, tales que, si son verdaderas, entonces S es necesariamente verdadera también. Pero, esta
condición también se satisface si S es una oración analítica o si las oraciones observacionales
dadas son lógicamente incompatibles entre sí. Con la siguiente formulación excluimos esos
casos y a la vez expresamos el criterio propuesto con más precisión:

(2.1) Requisito de verificabilidad completa en principio: Una oración tiene significado


empírico si, y sólo si, no es analítica y se deduce lógicamente de una clase finita y lógicamente
consistente de oraciones observacionales. (El término verificabilidad se usa para indicar la
posibilidad lógica de pruebas observacionales que, si realmente se encuentran, resultarían
concluyentes para la oración dada; esto no se refiere a la posibilidad técnica de realizar las
experiencias necesarias para obtener dichas pruebas, y todavía menos la posibilidad de
encontrar realmente fenómenos directamente observables que constituyan prueba
concluyente para aquella oración ya que esto equivaldría a la existencia real de dicha prueba e
implicaría, así, la verdad de la oración dada). Este criterio, sin embargo, tiene varios defectos
graves. El primero de los que mencionaremos aquí ha sido señalado por varios escritores:
a) El requisito de verificabilidad excluye todas las oraciones de forma universal y,
en consecuencia, todos los enunciados que pretenden expresar leyes generales; ya que éstas
no pueden ser verificadas concluyentemente por un conjunto finito de datos observacionales.
Y como las oraciones de este tipo constituyen parte integrante de teorías científicas, el
requisito de verificabilidad ha de ser considerado como extremadamente restrictivo a este
respecto. De manera similar, el criterio descalifica todas las oraciones tales como: "Para toda
sustancia existe un disolvente", que contiene tanto cuantificadores universales como
existenciales (es decir, figuran en ella las palabras "todo" y "alguno" o sus equivalentes); ya que
oraciones de esta clase no pueden ser deducidas lógicamente de un conjunto finito de
oraciones observacionales. No parecen haber sido muy advertidos dos defectos más del
requisito de verificabilidad:
b) Supongamos que S es una oración que satisface el criterio propuesto, mientras
que N es una oración tal como "Lo absoluto es perfecto", a la cual el criterio no atribuye
significado empírico. Entonces la disyunción S v N (es decir, la expresión obtenida de conectar
las dos oraciones mediante la palabra "o") satisface también el criterio; porque si S es
consecuencia de una clase finita de oraciones observacionales, entonces S v N es, trivialmente,
una consecuencia de la misma clase. Pero, evidentemente, el criterio empírico de significado
no está destinado a probar oraciones de ese tipo. A este respecto, por lo tanto, el requisito de
verificabilidad completa comprende demasiado.
c) Sea "P" un predicado observacional. Entonces, la oración puramente existencial
"(Ex) P (x)" ("Existe por lo menos una cosa que tiene la propiedad P") es completamente
verificable, porque se deduce de una oración observacional que afirma de algún objeto
particular que tiene la propiedad P. Pero su negación, al ser equivalente a la oración universal
"(x) P (x)" ("Nada tiene la propiedad P”) no es, evidentemente, por completo verificable, como
se sigue del comentario a) hecho más arriba. De aquí que, bajo el criterio (2.1), las negaciones
de ciertas oraciones empíricas -y, por lo tanto, cognoscitivamente- significativas, resultan
carentes de significado empírico; y como no son ni analíticas ni contradictorias, carecen
cognoscitivamente de significado. Pero cualquiera que sea la manera en que delimitemos el
dominio del lenguaje significativo, tendremos que insistir en que si una oración cae dentro de
tal dominio otro tanto tendrá que suceder con su negación. Para decirlo más claro: las
oraciones que han de ser calificadas de cognoscitivamente significantes son precisamente
aquellas de las que puede decirse significativamente que son verdaderas o falsas. Pero
entonces la adhesión a (2.1) engendraría un grave dilema, como se ve por la consecuencia que
acaba de mencionarse. Tendríamos que renunciar, bien al principio lógico fundamental de que
si una oración es verdadera o falsa, su negación es falsa o verdadera, respectivamente (y, por lo
tanto cognoscitivamente significativa); o bien tendremos que negar, de un modo que recuerda
la concepción intuicionista de la lógica y de las matemáticas que "(x) ~ P (x)" es lógicamente
equivalente a la negación de "(Ex) P ( x )". Claramente, el criterio (2.1 ), que se ha descalificado
a sí mismo en otros aspectos diversos, no justifica medidas tan enérgicas para su conservación;
por lo tanto, debe ser abandonado.
Consideraciones estrictamente análogas se aplican a un criterio opuesto, que hace de la
refutabilidad completa en principio la característica definidora de la significatividad empírica.
Formulemos este criterio del modo siguiente: una oración tiene significado empírico si, y sólo
si, es posible, en principio, de refutación completa por un número finito de datos
observacionales;
o, más exactamente:

(2.2) Requisito de refutabilidad completa en principio: Una oración tiene significado


empírico si, y sólo si, su negación no es analítica y se sigue lógicamente de una clase finita
lógicamente consistente de oraciones observacionales. (La idea de emplear la refutabilidad
teórica por pruebas observacionales como “criterio de demarcación” para separar la ciencia
empírica de la matemática y de la lógica de un lado y de la metafísica del otro se debe a K.
Popper). Este criterio califica a una oración de empíricamente significativa si su negación
satisface el requisito de verificabilidad completa; como habría que esperar, es, por
consiguiente, inadecuado por las mismas razones que el anterior:
a) Excluye hipótesis puramente existenciales, tales como "Existe por lo menos un
unicornio", y todas las oraciones cuya formulación requiera cuantificación mixta, es decir,
universal y existencial; porque ninguna de ellas puede posiblemente ser refutada
concluyentemente por un número finito de oraciones observacionales.
b) Si una oración S es completamente refutable y N es una oración que no lo es,
entonces su conjunción, S. N. (es decir, la expresión que se obtiene conectando las dos
oraciones por la palabra "y") es completamente refutable; porque si la negación de S es
implicada por una clase de oraciones observacionales, entonces la negación de S. N. está, a
fortiori, implicada por esa misma clase. Así, el criterio concede significado empírico a muchas
oraciones que descartaría un criterio empírico adecuado, tales como, digamos: "Todos los
cisnes son blancos y lo absoluto es perfecto”.
c) Si "P" es un predicado observacional, entonces la afirmación de que todas las
cosas tienen la propiedad P es calificada de significativa, pero su negación, que es equivalente a
una hipótesis puramente existencial, es descalificada. De aquí que el criterio (2.2) de origen al
mismo dilema que (2.1).
En suma, pues, las interpretaciones del criterio de verificabilidad entendido como
verificabilidad completa o refutabilidad completa, son inadecuadas porque son demasiado
restrictivas en una dirección y demasiado amplias en otras, y porque ambas requieren cambios
definitivos en los principios fundamentales de la lógica.
Se han hecho varios intentos para evitar estas dificultades, interpretando el criterio de
verificabilidad en el sentido de que sólo exige una confirmabilidad meramente parcial y
posiblemente indirecta de las hipótesis empíricas por pruebas observacionales.

Sobre “el significado” de un enunciado empírico

En efecto, el criterio a que hemos llegado califica a una oración de cognoscitivamente


significativa si sus componentes no lógicos se refieren a observables, sea directamente, sea de
ciertas maneras específicas indirectas, pero no dice nada acerca de cuál sea "el significado" de
una oración cognoscitivamente significativa, y en particular no dice ni implica que tal
significado pueda ser exhaustivamente caracterizado por lo que revele la totalidad de las
pruebas posibles en términos de fenómenos observables. En realidad, el contenido de un
enunciado con significado empírico no puede, en general, ser exhaustivamente expresado por
medio de ninguna clase de oraciones observacionales. Porque examínese, primero, entre los
enunciados admitidos
por nuestro criterio, cualquier hipótesis puramente existencial o cualquier enunciado que
implique cuantificación mixta. Como se ha indicado ya antes, según (2.2) (a), los enunciados de
esta clase no implican oraciones observacionales de ninguna clase; y, por lo tanto, su contenido
no puede ser expresado por medio de una clase de oraciones observacionales. Y, segundo,
aunque la mayor parte de los enunciados de forma puramente universal (corno "Todos los
flamencos son rosados") implican oraciones observacionales (como "Esta cosa es rosada") sólo
cuando se combinan con otras oraciones observacionales adecuadas (como "Esta cosa es un
flamenco"). Esta última observación puede ser generalizada. El uso de hipótesis empíricas para
la predicción de fenómenos observables requiere, prácticamente en todos los casos, el uso de
hipótesis empíricas subsidiarias. Así, por ejemplo, la hipótesis de que el agente de la
tuberculosis tiene forma de bastón no implica por sí misma la consecuencia de que observando
una muestra
de un esputo tuberculoso al microscopio se verán formas de bastoncitos: para deducir esa
predicción hay que usar como premisas adicionales un gran número de hipótesis subsidiarias,
incluyendo la teoría del microscopio. De aquí que lo que constantemente se denomina "el
significado (cognoscitivo)" de una hipótesis científica dada, no pueda ser adecuadamente
caracterizado sólo en términos de pruebas observacionales potenciales, ni pueda ser
especificado para la hipótesis tomada aisladamente. Para comprender "el significado" de una
hipótesis en un lenguaje empirista, tenemos que saber no meramente qué oraciones de
observación implica sola o en conjunción con hipótesis subsidiarias, sino también qué otras
oraciones empíricas, no observacionales, son implicadas por ella, qué oraciones en el lenguaje
dado la confirmarían o negarían, y de qué otras hipótesis sería la hipótesis dada confirmatoria
o refutadora. En otras palabras, el significado cognoscitivo de un enunciado en un lenguaje
empirista se refleja en la totalidad de sus relaciones lógicas con todos los demás enunciados en
aquel lenguaje, y no sólo con las oraciones observacionales. En este sentido, los enunciados de
la ciencia empírica tienen un significado excedente además del que puede expresarse por
medio de las oraciones observacionales pertinentes.
Hempel, C. G. – Filosofía de la ciencia natural

Etapas fundamentales en la contrastación de una hipótesis

La contrastación está basada en un razonamiento que consiste en decir que si la hipótesis


considerada, llamémosle H, es verdadera, entonces se producirán, en circunstancias
específicas, ciertos sucesos observables; en pocas palabras, si H es verdadera, entonces
también lo es B, donde B es un enunciado que describe los hechos observables que se espera
se produzcan. Convengamos en decir que B se infiere de, o está implicado por, H; y llamemos a
B una implicación contrastadora de la hipótesis H. Si lo experimentos muestran que la
implicación contrastadora es falsa, se rechazará la hipótesis. El razonamiento que lleva al
rechazo podría esquematizarse del siguiente modo:

Si H es verdadera, entonces también los es B


Pero (como se muestra empíricamente) B no es verdadera

H no es verdadera.

Toda inferencia de esta forma, llamada en lógica modus tollens, es deductivamente válida; es
decir, que si sus premisas son verdaderas, entonces su conclusión es indefectiblemente
verdadera también.
Consideremos ahora el caso en que la observación o la experimentación confirman la
implicación contrastadora, B. Los experimentos muestras que la implicación contrastadora es
verdadera. Pero este resultado favorable no prueba de un modo concluyente que la hipótesis
sea verdadera, porque el razonamiento en que nos hemos basado tendría la forma siguiente:

Si H es verdadera, entonces también lo es B


(Como se muestra empíricamente) B es verdadera

H es verdadera.

Y este modo de razonar, conocido con el nombre de falacia de afirmación de consecuente, no


es deductivamente válido, es decir, que su conclusión puede ser falsa, aunque sus premisas
sean verdaderas. El resultado favorable de una contrastación, es decir, el hecho de que una
implicación contrastadora inferida de una hipótesis resulte ser verdadera, no prueba que la
hipótesis lo sea también. Incluso en el caso de que hayan sido confirmadas mediante
contrastación cuidadosa diversas implicaciones de una hipótesis, incluso en ese caso, puede la
hipótesis ser falsa. El siguiente razonamiento incurre también en la falacia de afirmación de
consecuente:
Si H es verdadera, entonces lo son también B1, B2, …, Bn
(Como se muestra empíricamente), B1, B2, …, Bn, son todas verdaderas

H es verdadera.

Pero la advertencia de que un resultado favorable en todas cuantas contrastaciones hagamos


no proporciona una prueba concluyente de una hipótesis no debe inducirnos a pensar que
después de haber sometido una hipótesis a una serie de contrastaciones, siempre con
resultado favorable, no estamos en una situación más satisfactoria que si no la hubiéramos
contrastado en absoluto. Porque cada una de esas contrastaciones podía muy bien haber dado
un resultado desfavorable y podía habernos llevado al rechazo de la hipótesis. Una serie de
resultados favorables obtenidos contrastando distintas implicaciones contrastadoras, B1, B2, …,
Bn, de una hipótesis ha sido confirmada; y si bien este resultado no supone una prueba
completa de la hipótesis, al menos le confiere algún apoyo, una cierta corroboración o
confirmación parcial de ella. El grado de esta confirmación dependerá de diversos aspectos de
la hipótesis y de los datos de la contrastación.

El papel de la inducción en la investigación científica

Hemos examinado algunas investigaciones científicas en las cuales, ante un problema dado, se
proponían respuestas en forma de hipótesis que luego se contrastaban derivando de ellas las
apropiadas implicaciones contrastadoras, y comprobando éstas mediante la observación y la
experimentación. Pero, ¿cómo se llega en un principio a las hipótesis adecuadas? Se ha
mantenido a veces que esas hipótesis se infieren de datos recogidos con anterioridad por
medio de un procedimiento llamado inferencia inductiva, en contraposición a la inferencia
deductiva, de la que difiere en importantes aspectos.
En una argumentación deductivamente válida, la conclusión está relacionada de tal modo con
las premisas que si las premisas son verdaderas entonces la conclusión no puede dejar de
serlo. Esta exigencia la satisface, por ejemplo, una argumentación de la siguiente forma
general:

Si p, entonces q
No es el caso que q

No es el caso que p.

Independientemente de cuáles sean los enunciados concretos con que sustituyamos las letras
p y q, la conclusión será, con seguridad, verdadera si las premisas lo son. De hecho, nuestro
esquema representa la forma de inferencia llamada modus tollens, a la que ya nos hemos
referido. El ejemplo siguiente es una muestra de otro tipo de inferencia deductivamente válido:
Toda sal de sodio, expuesta a la llama de un mechero Bunsen, hace tomar a la llama un color
amarrillo

Este trozo de mineral es una sal de sodio

Este trozo de minera, cuando se le aplique la llama de un mechero Bunsen, hará tomar a la
llama un color amarillo.

De las argumentaciones de este último tipo se dice a menudo que van de lo general (en este
caso, las premisas que se refieren a todas las sales de sodio) a lo particular (una conclusión
referente a este trozo concreto de sal de sodio). Se dice a veces que, por el contrario, las
inferencias inductivas parten de premisas que se refieren a casos particulares y llevan a una
conclusión cuyo carácter es el de una ley o principio genera. Por ejemplo, partiendo de
premisas según las cuales cada una de las muestras concretas de varias sales de sodio que ha
sido aplicadas hasta ahora a la llama de un mechero de Bunsen ha hecho tomar a la llama un
color amarillo, la inferencia inductiva -se supone- lleva a la conclusión general de que todas las
sales de sodio, cuando se les aplica la llama de un mechero Bunsen, tiñen de amarillo la llama.
Pero es obvio que en este caso la verdad de las premisas no garantiza la verdad de la
conclusión; porque incluso si es el caso que todas las muestras de sales de sodio hasta ahora
examinadas vuelven amarilla la llama de Bunsen, incluso en ese caso, queda la posibilidad de
que se encuentren nuevos tipos de sal de sodio que no se ajusten a esta generalización.
Además, pudiera también ocurrir perfectamente que algunos de los tipos de sodio que han
sido examinados con resultado positivo dejen de satisfacer la generalización cuando se
encuentren en condiciones físicas especiales, bajo las cuales no han sido todavía sometidas a
prueba. Por esta razón, con frecuencia se dice que las premisas de una inferencia inductiva
implican la conclusión sólo con un grado más o menos alto de probabilidad, mientras que las
premisas de una inferencia deductiva implican la conclusión con certeza.
La idea de que, en la investigación científica, la inferencia inductiva que parte de datos
recogidos con anterioridad conduce a principios generales apropiados aparece claramente en
la siguiente descripción idealizada del proceder de un científico: Si intentamos imaginar cómo
utilizaría el método científico… una mente de poder y alcance sobrehumanos, pero normal en
lo que se refiere a los procesos lógicos de su pensamiento, el proceso sería el siguiente: En
primer lugar, se observarían y registrarían todos los hechos, sin seleccionarlos ni hacer
conjeturas a priori acerca de su relevancia. En segundo lugar, se analizarían, compararían y
clasificarían esos hechos observados y registrados, sin más hipótesis ni postulados que los que
necesariamente supone la lógica del pensamiento. En tercer lugar, a partir de este análisis de
los hechos se harían generalizaciones inductivas referentes a las relaciones, clasificatorias o
causales, entre ellos. En cuarto lugar, las investigaciones subsiguientes serían deductivas tanto
como inductivas, haciéndose inferencias a partir de generalizaciones previamente establecidas.
Este testo distingue cuatro estadios en una investigación científica ideal: (1) observación y
registro de todos los hechos; (2) análisis y clasificación de éstos; (3) derivación inductiva de
generalizaciones a partir de ellos, y (4) contrastación ulterior de las generalizaciones. En los dos
primeros estadios no hay hipótesis ni conjeturas acerca de cuáles puedan ser las conexiones
entre los hechos observados; esta restricción parece obedecer a la idea de que esas ideas
preconcebidas resultarían tendenciosas y comprometerían la objetividad científica de la
investigación. Pero la concepción formulada en el texto que acabamos de citar -y a la que
denominaré la concepción inductivista estrecha de la investigación científica- es insostenible
por varias razones.
En primer lugar, una investigación científica, tal como ahí nos la presentan, es impracticable. Ni
siquiera podemos dar el primer paso, porque para poder reunir todos los hechos tendríamos
que esperar, por decirlo así, hasta el fin del mundo; y tampoco podemos reunir todos los
hechos dados hasta ahora, puesto que éstos son infinitos tanto en número como en variedad.
¿Hemos de examinar, por ejemplo, todos los granos de arena de todos los desiertos y de todas
las playas, y hemos de tomar nota de su forma, de su peso, de su composición química, de las
distancias entre uno y otro, de su temperatura constantemente cambiante y de su igualmente
cambiante distancia al centro de la Luna? ¿Hemos de registrar los pensamientos fluctuantes
que recorren nuestra mente en los momentos de cansancio? ¿Las formas de las nubes y la
marca de nuestros utensilios de escritura? ¿Nuestras biografías y las de nuestros
colaboradores? Después de todo, todas estas cosas, y otras muchas, están entre <<los hechos
que se han dado hasta ahora>>. Pero cabe la posibilidad de que lo que se nos exija en esa
primera fase de la investigación científica sea reunir todos los hechos relevantes. Pero,
¿relevantes con respecto a qué? Aunque el autor no hace mención de este punto, supongamos
que la investigación se refiere a un problema específico. ¿Es que no empezaríamos, en ese
caso, haciendo acopio de todos los hechos -o, mejor, de todos los datos disponibles- que sean
relevantes para ese problema? El tipo concreto de datos que haya que reunir no está
determinado por el problema que se está estudiando, sino por el intento de respuesta que el
investigador trata de darle en forma de conjetura o hipótesis. Los <<hechos>> o hallazgos
empíricos sólo se pueden cualificar como lógicamente relevantes o irrelevantes por referencia
a una hipótesis dada, y no por referencia a un problema dado. Supongamos que se ha
propuesto una hipótesis H como intento de respuesta a un problema planteado en una
investigación: ¿qué tipo de datos serían relevantes con respecto a H? un dato que hayamos
encontrado es relevante con respecto a H si el que se dé o no se dé se puede inferir de H.
En resumen: la máxima según la cual la obtención de datos debería realizarse sin la existencia
de hipótesis antecedentes que sirvieran para orientarnos acerca de las conexiones entre los
hechos que se están estudiando es una máxima que se autorrefuta, y a la que la investigación
científica no se atiene. Al contrario: las hipótesis, en cuanto intentos de respuesta, son
necesarias para servir de guía a la investigación científica. Esas hipótesis determinan, entre
otras cosas, cuál es el tipo de datos que se han de reunir en un momento dado de una
investigación científica. Existe, entonces, una imposibilidad de reunir «todos los datos
relevantes» sin conocimiento de las hipótesis con respecto a las cuales tienen relevancia esos
datos. Un conjunto de «hechos» empíricos se puede analizar y clasificar de muy diversos
modos, la mayoría de los cuales no serían de ninguna utilidad para una determinada
investigación. Para que un modo determinado de analizar y clasificar los hechos pueda
conducir a una explicación de los fenómenos en cuestión debe estar basado en hipótesis
acerca de cómo están conectados esos fenómenos; sin esas hipótesis, el análisis y la
clasificación son ciegos.
Nuestras reflexiones críticas sobre los dos primeros estadios de la investigación descartan la
idea de que las hipótesis aparecen sólo en el tercer estadio, por medio de una inferencia
inductiva que parte de datos recogidos con anterioridad.
Otras observaciones: la inducción se concibe a veces como un método que, por medio de
reglas aplicables mecánicamente, nos conduce desde los hechos observados a los
correspondientes principios generales. En este caso, las reglas de la inferencia inductiva
proporcionarían cánones efectivos del descubrimiento científico; la inducción sería un
procedimiento mecánico análogo al familiar procedimiento para la multiplicación de enteros,
que lleva, en un número finito de paso predeterminados y realizables mecánicamente, al
producto correspondiente. De hecho, sin embargo, en este momento no disponemos de ese
procedimiento general y mecánico de inducción; en caso contrario, difícilmente estaría hoy sin
resolver el muy estudiado problema del origen del cáncer. Porque -para dar sólo una de las
razones- las hipótesis y teorías científicas están usualmente formuladas en términos que no
aparecen en absoluto en la descripción de los datos empíricos en que ellas se apoyan y a cuya
explicación sirven. Los procedimientos mecánicos para la construcción de una hipótesis juegan
tan sólo un papel parcial, pues presuponen una hipótesis antecedente, menos específica, a la
que no se puede llegar por el mismo procedimiento. No hay, por tanto, <<reglas de
inducción>> generalmente aplicables por medio de las cuales se puedan derivar o inferir
mecánicamente hipótesis o teorías a partir de los datos empíricos. La transición de los datos a
la teoría requiere imaginación creativa. Las hipótesis y teorías científicas no se derivan de los
hechos observados, sino que se inventan para dar cuenta de ellos. Son conjeturas relativas a las
conexiones que se pueden establecer entre los fenómenos que se están estudiando, a las
uniformidades y regularidades que subyacen a éstos. Las <<conjeturas felices>> de este tipo
requieren gran inventiva, especialmente si suponen una desviación radical de los modos
corrientes del pensamiento científico, como era el caso de la teoría de la relatividad o de la
teoría cuántica. El esfuerzo inventivo requerido por la investigación científica saldrá beneficiado
si se está completamente familiarizado con los conocimientos propios de ese campo.
En la ciencia, si bien las hipótesis y teorías pueden ser libremente inventadas y propuestas, sólo
pueden ser aceptadas e incorporadas al corpus del conocimiento científico si resisten la
revisión crítica, que comprende, en particular, la comprobación, mediante cuidadosa
observación y experimentación, de las apropiadas implicaciones contrastadoras. También la
imaginación y la libre invención juegan un papel de importancia similar en aquellas disciplinas
cuyos resultados se validan mediante el razonamiento deductivo exclusivamente; por ejemplo,
en matemáticas. Porque las reglas de la inferencia deductiva no proporcionan, tampoco, reglas
mecánicas de descubrimiento. Tal como lo ilustraba nuestra formulación del modus tollens,
estas reglas se expresan por lo general en forma de esquemas generales: y cada ejemplificación
de esos esquemas generales constituye una argumentación deductivamente válida. Dadas unas
premisas concretas, ese esquema nos señala el modo de llegar a una consecuencia lógica. Pero,
dado cualquier conjunto de premisas, las reglas de la inferencia deductiva señalan una
infinidad de conclusiones válidamente deducibles. Tomemos, por ejemplo, una regla muy
simple representada por el siguiente esquema:

p
poq

La regla nos dice, en efecto, que de la proposición según la cual es el caso que p, se sigue que
es el caso que p o q, siendo p y q proposiciones cualesquiera. La palabra <<o>> se entiende
aqué en su sentido <<no exclusivo>>, de modo que decir <<p o q>> es lo mismo que decir <<o
p o q o ambos a la vez>>. Es claro que si las premisas de una argumentación de este tipo son
verdaderas, entonces la conclusión debe serlo también; por tanto, cualquier razonamiento que
tenga esta forma es un razonamiento válido. Pero esta regla, por sí sola, nos autoriza a inferir
consecuencias infinitamente diferentes a partir de una sola premisa. Así, por ejemplo, de <<la
Luna no tiene atmósfera>>, nos autoriza a inferir un enunciado cualquiera de la forma <<la
Luna no tiene atmósfera o q>>, donde, en lugar de q, podemos escribir un enunciado
cualquiera, verdadero o falso; por ejemplo, <<la atmósfera de la Luna es muy tenues>>, <<la
Luna esta deshabitada>>, <<el otro es más denso que la plata>>, <<la plata es más densa que
el oro>>, etc. Hay, desde luego, otras reglas de la inferencia deductiva que hacen mucho mayor
la variedad de enunciados derivables de una premisa o conjunto de premisas, las reglas de
deducción no marcan una dirección fija a nuestros procedimientos de inferencia. No nos
señalan un enunciado como <<la>> conclusión que ha de derivarse de nuestras premisas, ni
nos indican cómo obtener conclusiones interesantes o importantes desde el punto de vista
sistemático; no proporcionan un procedimiento mecánico para, por ejemplo, derivar teoremas
matemáticos significativos a partir de unos postulados dados. El descubrimiento de teoremas
matemáticos importantes, fructíferos, al igual que el descubrimiento de teorías importantes,
fructíferas, en la ciencia empírica, requiere habilidad inventiva; exige capacidad imaginativa,
penetrante, de hacer conjeturas. Pero, además, los intereses de la objetividad científica están
salvaguardados por la exigencia de una validación objetiva de esas conjeturas. En matemáticas
esto quiere decir prueba por derivación deductiva a partir de los axiomas. Y cuando se ha
propuesto como conjetura una proposición matemática, su prueba o refutación requiere
todavía inventiva y habilidad, muchas veces de gran altura; porque las reglas de la inferencia
deductiva no proporcionan tampoco un procedimiento mecánico general para construir
pruebas o refutaciones. Su papel sistemático es más modesto: servir como criterios de
corrección de las argumentaciones que se ofrecen como pruebas; una argumentación
constituirá una prueba matemática válida si llega desde los axiomas hasta el teorema
propuesto mediante una serie de pasos, todos los cuales son válidos de acuerdo con alguna de
las reglas de la inferencia deductiva. Y comprobar si un argumento dado es una prueba válida
en este sentido sí que es una tarea puramente mecánica.
Así, pues, como hemos visto, al conocimiento científico no se llega aplicando un procedimiento
inductivo de inferencia a datos recogidos con anterioridad, sino más bien mediante el llamado
<<método de las hipótesis>>, es decir, inventando hipótesis a título de intentos de respuesta a
un problema en estudio, y sometiendo luego éstas a la contrastación empírica. Una parte de
esa contrastación la constituirá el ver si la hipótesis está confirmada por cuantos datos
relevantes hayan podido ser obtenidos antes de la formulación de aquélla; una hipótesis
aceptable tendrá que acomodarse a los datos relevantes con que ya se contaba. Otra parte de
la contrastación consistirá en derivar nuevas implicaciones contrastadoras a partir de la
hipótesis, y comprobarlas mediante las oportunas observaciones o experiencias. Como antes
hemos señalado, una contrastación con resultados favorables, por amplia que sea, no
establece una hipótesis de modo concluyente, sino que se limita a proporcionarle un grado
mayor o menor de apoyo. Por tanto, aunque la investigación científica no es inductiva en el
sentido estrecho que hemos examinado con algún detalle, se puede decir que es inductiva en
un sentido más amplio, en la medida en que supone la aceptación de hipótesis sobre la base de
datos que no las hacen deductivamente concluyentes, sino que sólo les proporcionan un
<<apoyo inductivo>> más o menos fuerte, un mayor o menor grado de confirmación. Y las
<<reglas de inducción>> han de ser concebidas, en cualquier caso, por analogía con las reglas
de deducción, como cánones de validación, más bien que de descubrimiento. Lejos de generar
una hipótesis que da cuenta de los resultados empíricos dados, esas reglas presuponen que
están dados, por una parte, los datos empíricos que forman las <<premisas>> de la
<<inferencia inductiva>> y, por otra parte, una hipótesis de tanteo que constituye su
<<conclusión>>. Lo que harían las reglas de inducción sería, entonces, formular criterios de
corrección de la inferencia. Según algunas teorías de la inducción, las reglas determinarían la
fuerza del apoyo que los datos prestan a la hipótesis, y pueden expresar ese apoyo en términos
de probabilidades.

Hempel, C. G. – La explicación científica. Estudios sobre la filosofía de la ciencia.

Examen elemental de la explicación científica

Algunos ejemplos

Consideremos el siguiente ejemplo. Desde un bote, la pala del remo sumergida se ve quebrada
hacia arriba. El fenómeno se explica mediante leyes generales, en especial por la ley de
refracción y la de que el agua es un medio ópticamente más denso que el aire, haciendo
referencia a ciertas condiciones antecedentes, o sea que parte del remo está en el agua, parte
en el aire y que el remo es prácticamente un trozo de madera recto. Así, la pregunta «¿Por qué
sucede el fenómeno?» deberá interpretarse como «¿De acuerdo con qué leyes generales y
condiciones antecedentes se produce el fenómeno?» Además de considerar la explicación de
hechos particulares que ocurren en cierto tiempo y en cierto lugar determinados, la pregunta
«¿por qué?» puede formularse también con respecto a leyes generales. Así, en nuestro último
ejemplo, podría preguntarse «¿Por qué la propagación de la luz se acomoda a la ley de
refracción?». La física clásica responde en función de la teoría ondulatoria de la luz, es decir,
afirmando que la propagación de la luz es un fenómeno de onda de cierto tipo general, y que
todo fenómeno ondulatorio de ese tipo satisface la ley de refracción. De este modo, la
explicación de una regularidad general consiste en subsumirla dentro de otra regularidad más
inclusiva, o sea una ley más general.
De manera similar, la validez de la ley de Galileo sobre la caída de los cuerpos en la superficie
terrestre, puede explicarse a partir de un conjunto más inclusivo de leyes, tales como las del
movimiento y de la gravedad de Newton, además de otros enunciados acerca de hechos
particulares, como la masa y el radio terrestres.

Pauta básica de la explicación científica

De los ejemplos anteriores podemos extraer algunas características generales de la explicación


científica. Dividimos la explicación en dos componentes principales explanandum y explanans.
Por explanandum entendemos la oración que describe el fenómeno a explicar (y no el
fenómeno mismo); el término explanans se refiere a la clase de aquellas oraciones que se
aducen para dilucidar el fenómeno. El explanans se encuentra en dos subclases; una contiene
ciertas oraciones C1, C2, …, Ck que formulan condiciones antecedentes específicas; otras es un
conjunto de oraciones L1, L2, …, Lr que representan leyes generales. Para que una explicación
sea sólida, sus componentes deben satisfacer ciertas condiciones de adecuación, que pueden
dividirse en condiciones lógicas y empíricas.

Condiciones lógicas de la adecuación

(R1) El explanandum debe ser una consecuencia lógica del explanans; expresado en
otras palabras, el primero debe ser lógicamente deducible de la información
contenida en el explanans, porque de lo contrario este último no podría
constituir una base adecuada para el explanandum.
(R2) El explanans debe contener leyes generales exigidas realmente para la
derivación del explanandum.
(R3) El explanans debe tener contenido empírico; es decir, que por lo menos en
principio sea posible comprobarse mediante el experimento o la observación.
Esta condición está implícita en (R1), pues, desde que se supone que el
explanandum describe cierto fenómeno empírico, se puede concluir a partir de
(R1) que el explanans entraña por lo menos una consecuencia de índole
empírica, y este hecho le otorga la condición de ser verificable y de tener
contenido empírico.

Condición empírica de la adecuación

(R4) Las oraciones que constituyen el explanans han de ser verdaderas. Es obvio
que en una explicación correcta los enunciados que constituyen el explanans
deben satisfacer cierta condición de corrección fáctica. Pero parecería más
adecuado estipular que el explanans ha de ser confirmado en alto grado por
todos los elementos relevantes disponibles, antes que deba considerarse
verdadero. No obstante, esta estipulación conduce a consecuencias
embarazosas. Supóngase que en una etapa primitiva de la ciencia un
determinado fenómeno fuera explicado mediante un explanans verificado con
las pruebas de que se disponía en ese momento, pero que descubrimientos
empíricos más recientes lo hubieran negado. En ese caso, deberíamos decir
que originariamente la explicación fue correcta, pero que dejó de serlo cuando
se descubrieron elementos de prueba desfavorables. Esto no parece concordar
con el saludable uso común, que nos lleva a decir que basada en los elementos
limitados de prueba iniciales, la verdad del explanans y, por ende, la solidez de
la explicación había sido bastante probable, pero que la mayor evidencia ahora
disponible hizo muy probable que el explanans no fuera verdadero; de ahí que
la explicación no era ni había sido nunca correcta.
Se ha de señalar aquí que el mismo análisis formal, incluidas las cuatro condiciones necesarias,
se aplica tanto a la predicción científica como a la explicación. La diferencia entre ambas es de
carácter pragmático. Dado E, es decir, si sabemos que ha ocurrido el fenómeno descripto por E,
y si se proporciona luego un conjunto adecuado de enunciados C1, C2, ..., Ck; L1, L2, ..., Lr,
hablamos de una explicación del fenómeno que estudiamos. Si se proporcionan los últimos
enunciados mencionados y se infiere E antes de que suceda el fenómeno que describe,
hablamos de predicción. En consecuencia, puede decirse que la explicación de un hecho no es
enteramente adecuada a menos que su explanans, considerado a tiempo hubiera podido
fundamentar el pronóstico del hecho que se analiza. Por lo tanto, lo expresado aquí sobre las
características lógicas de la explicación, será aplicable a ambas, aunque sólo se mencione una
de ellas.
Sin embargo, por lo general - y en especial en el razonamiento precientífico - se brindan
muchas explicaciones que carecen de esa fuerza potencial predictiva. Por ejemplo, puede
ilustrarse haciendo referencia al criterio de W. S. Jevons de que toda explicación consiste en
señalar una similitud entre hechos, y que a veces este proceso no necesita referirse a leyes en
absoluto, y "tal vez no implique otra cosa que Una única identidad, como cuando explicamos la
aparición de estrellas fugaces señalando que son idénticas a las porciones de un cometa". Pero
es evidente que esa identidad no proporciona una explicación del fenómeno de las estrellas
fugaces, a menos que presupongamos las leyes que gobiernan el desarrollo del calor y de la luz
como efectos de la fricción. La observación de semejanzas posee un valor explicativo sólo si
implica por lo menos alguna referencia tácita a las leyes generales.
El tipo de explicación que hemos considerado hasta aquí comúnmente se denomina
explicación causal. Si E describe un hecho concreto, puede decirse entonces que las
circunstancias antecedentes señaladas en las oraciones C1, C2, … Ck, "causan" en conjunto aquél
hecho, en el sentido de que existen ciertas regularidades empíricas expresadas por las leyes L1,
L2, ... Lr, las cuales implican que toda vez que ocurran condiciones del tipo indicado por C1, C2, …
Ck, tendrá lugar un hecho del tipo descripto en E. Los enunciados tales como L1, L2, … Lr, que
expresan conexiones generales y ordinarias entre características específicas de hechos, se
denominan habitualmente leyes causales o deterministas. Estas leyes deberán distinguirse de
las llamadas leyes estadísticas, las cuales expresan que, a la larga, un porcentaje explícitamente
establecido de todos los casos que satisfagan un grupo dado de condiciones estará
acompañado por un hecho de cierto tipo especificado. Ciertos casos de explicación científica
implican la "subsunción" de un explanandum bajo un conjunto de leyes, de las cuales por lo
menos algunas son del tipo estadístico.
(Mill: <<Se dice que un hecho individual se explica al señalarle su causa, vale decir, al
formularse la ley o leyes causales de las cuales la producción del hecho es un ejemplo>>, y <<se
dice que una ley o uniformidad en la naturaleza se explica cuando se señala otra ley o leyes de
las cuales aquélla constituye sólo un caso, y de las cuales puede deducirse>>. Jevons: <<El
proceso más importante de explicación consiste en mostrar que un hecho observado es un
caso de una ley o tendencia general>>. Ducasse: <<La explicación consiste, esencialmente, en
ofrecer una hipótesis acerca de un hecho, la cual se encuentra, respecto de éste, como
antecedente de un caso consecuente de alguna ley conectiva ya conocida>>)

La explicación en las ciencias no físicas. Enfoques teleológicos y motivacionales.

La explicación en biología, en psicología y en las ciencias sociales tiene la misma estructura que
en las ciencias físicas, sin embargo, está bastante difundida la opinión de que, en muchos
casos, el tipo causal de explicación es esencialmente inadecuado en otros campos que no sean
la física y la química, y especialmente en el estudio de la conducta intencional. Examinemos
con brevedad algunas de las razones que se han aducido en apoyo de este concepto. Una de
las más familiares entre ellas es la idea de que los hechos que implican actividades humanas,
realizadas de manera individual o en grupo, tienen una singularidad peculiar y sin repetición
que los hace inaccesibles a la explicación causal porque ésta, al confiar en uniformidades,
presupone la repetibilidad de los fenómenos en consideración. Este argumento que
incidentalmente también se utilizó para sostener la afirmación de que el método experimental
es inaplicable en psicología y en las ciencias sociales, implica una falta de comprensión del
carácter lógico de la explicación causal. Todo hecho individual es único, sea en las ciencias
físicas, en psicología o en ciencias sociales, en el sentido de que no se repite con todas sus
características peculiares. Sin embargo, los hechos individuales pueden acomodarse a leyes
generales del tipo causal y ser explicados por ellos, porque todo lo que afirma la ley causal es
que todo hecho de índole específica, es decir, que reúna ciertas características determinadas se
acompaña de otro que, a su vez, tiene ciertos rasgos específicos. Por ejemplo, todo hecho que
implique fricción genera calor. Y todo lo que se requiere para que esas leyes puedan
comprobarse y medirse su aplicabilidad es la repetición de hechos con esas mismas
características, pero no de casos individuales. Por consiguiente, el argumento no es
concluyente. Cuando hablamos de la explicación de un hecho singular, el término <<hecho>>
se refiere al suceso de cierta característica más o menos compleja en una localización espacio-
temporal específica o en un objeto individual determinado, y no a todas las características de
ese objeto, o a todo lo que ocurre en esa región espacio-temporal.
Un segundo argumento afirma que es imposible establecer generalizaciones científicas -y por
ende principios explicativos- acerca de la conducta humana porque las reacciones de un
individuo en una situación dada dependen no sólo de esa situación, sino también de los
antecedentes personales del individuo. Pero sin duda no hay razón a priori por la cual no
puedan lograrse generalizaciones que tomen en cuenta esta dependencia conductual del
pasado del sujeto. Es evidente que en realidad el argumento dado <<prueba>> demasiado y
constituye, por lo tanto, un non sequitur, debido a la existencia de ciertos fenómenos físicos,
tales como la histéresis magnética y la fatiga elástica, en los cuales la magnitud de un efecto
depende de los antecedentes del sistema implicado, y para el cual se han establecido, no
obstante, ciertas regularidades generales.
Un tercer argumento insiste en que la explicación de todo fenómeno que implique una
conducta intencional exige hacer referencia a motivaciones y, en consecuencia, a un análisis
teleológico antes que causal. Tenemos que remitirnos a las metas buscadas, lo cual - dice el
argumento - introduce un tipo de explicación ajeno a las ciencias físicas. Es cuestionable que
muchas de las explicaciones, generalmente incompletas, que se ofrecen para las acciones
humanas, implican referencia a propósitos y motivos; pero, ¿acaso esto las hace
fundamentalmente distintas de las explicaciones causales de la física y la química? Una
diferencia que se sugiere por sí sola reside en la circunstancia de que en la conducta motivada,
el futuro parece afectar el presente de una manera que no se encuentra en las explicaciones
causales de las ciencias físicas. Pero es evidente que cuando la acción de una persona está
motivada, digamos, por el deseo de alcanzar cierto objetivo no es el hecho futuro, aún
inadvertido, de obtener esa meta lo que determina su conducta presente, puesto que en
realidad la meta bien pudiera no alcanzarse nunca, antes bien, digámoslo crudamente, es a) su
deseo, presente antes de la acción, de alcanzar ese objetivo particular, y b) su creencia,
también presente antes de la acción, de que tal y cual curso de acción tenga probablemente el
efecto deseado. Por consiguiente, los motivos y las creencias determinantes deben clasificarse
entre las condiciones antecedentes de una explicación motivacional, y aquí no existe diferencia
formal alguna entre la explicación causal y motivacional.
Tampoco constituye una diferencia esencial entre ambas clases de explicación, el hecho de que
los motivos sean inaccesibles a la observación directa de un observador exterior, porque los
factores determinantes que se aducen en las explicaciones físicas, con mucha frecuencia
resultan inaccesibles a la observación directa. Este es el caso, por ejemplo, cuando se señalan
cargas eléctricas opuestas para explicar la atracción mutua de dos bolas de metal. La presencia
de esas cargas, aunque escapa a la observación directa, se la puede investigar mediante
diversas pruebas indirectas, y eso es suficiente para garantizar el carácter empírico del
enunciado explicativo. De manera similar, es posible indagar la presencia de ciertas
motivaciones solamente por métodos indirectos, lo cual puede incluir referencias a la
expresión lingüística del sujeto estudiado, a los deslices de la lengua o de la pluma, etc.; pero
hasta tanto estos métodos sean "determinados funcionalmente" con razonable claridad y
precisión, no habrá diferencia esencial, en este aspecto, entre la explicación motivacional y la
explicación causal, en física.
Un riesgo potencial en la explicación apoyada por motivos reside en el hecho de que el método
conduce por sí solo a la fácil construcción de explicaciones ex post facto que carecen de fuerza
predictiva. Una acción a menudo se explica atribuyéndola a motivos que se conjeturan sólo
después que la acción se ha llevado a cabo. Mientras este procedimiento no es de por sí
objetable, su solidez requiere que 1) los supuestos motivacionales en cuestión puedan
comprobarse, y 2) que se disponga de leyes generales adecuadas que conduzcan al poder
explicativo hacia los motivos supuestos. El descuido de estos requisitos con frecuencia priva a
la explicación motivacional declarada, de su significación cognitiva. Algunas veces, la
explicación de un acto en función de los motivos del agente se considera como una clase
especial de explicación teleológica. Como ya se señaló antes, la explicación motivacional, si se
formula adecuadamente, conforma las condiciones de la explicación causal, de modo que el
término "teleológica" es inadecuado si se quiere significar ya un carácter no causal de la
explicación, ya una determinación peculiar del presente por el futuro. No obstante, si se tiene
presente esta condición, el término "teleológico" puede considerarse en ese contexto como
referido a explicaciones causales en las cuales algunas de las condiciones antecedentes son
motivos del agente cuyos actos habrá que explicar.
Las explicaciones teleológicas de esta clase deben diferenciarse de otro tipo de más vasto
alcance, que ha sido considerado por ciertas escuelas filosóficas, indispensable especialmente
en biología. Consiste en explicar las características de un organismo remitiéndolas a ciertos
fines o propósitos, a cuyas características dicen servir. En contraposición a los casos que
examinamos antes, no se presume aquí que el organismo persiga los fines, sea consciente o
subconscientemente. Así, para explicar el fenómeno del mimetismo, se dice que éste sirve al
propósito de proteger al animal con él dotado de ser descubierto por sus perseguidores, y que
así tiende a conservar la especie. Antes de que pueda apreciarse la fuerza potencial explicativa
de las hipótesis teleológicas de este tipo, debe aclararse su significado. Si de algún modo
intentan expresar la idea de que los propósitos a que se refieren son inherentes al plan del
universo, entonces es obvio que no pueden comprobarse empíricamente y por lo tanto violan
el requisito (R3) de la sección 2. Sin embargo, en ciertos casos, las afirmaciones acerca de los
propósitos de las características biológicas pueden trasladarse a enunciados de terminología
teleológica que afirmen que esos rasgos funcionan de manera específica, imprescindible, para
conservar vivo al organismo o para preservar la especie. El intento de afirmar con exactitud el
significado de la aseveración anterior - o la similar de que si no fuera por esas características,
dejando invariables las demás circunstancias, el organismo o la especie no sobrevivirían - se
enfrenta con dificultades considerables. Aunque supusiéramos que los enunciados biológicos
de forma teleológica pudieran traducirse adecuadamente en enunciados descriptivos sobre la
función conservadora de vida de ciertas características biológicas, es obvio que 1) en estos
contextos no es esencial el empleo del concepto de intención, puesto que el término puede
eliminarse de esos enunciados por completo, y 2) los supuestos teleológicos, aunque dotados
ahora de contenido empírico, no pueden servir como principios explicativos en los contextos
comunes. Por ejemplo, el hecho de que determinada especie de mariposa posea un tipo
particular de colorido no puede inferirse y, por ende, explicarse a partir de esa enunciación de
que ese tipo de color tiene el efecto de proteger las mariposas de las aves que las persiguen ni
tampoco puede inferirse la presencia de glóbulos rojos en la sangre humana del enunciado de
que tengan la función específica de asimilar oxígeno, esencial para la conservación de la vida.
Una de las razones de la perseveración de las consideraciones teleológicas en biología, reside
probablemente en lo fructífero del enfoque teleológico como recurso heurístico; indagaciones
biológicas que estaban motivadas psicológicamente por una orientación teleológica, por un
interés en los objetivos naturales han conducido con frecuencia a importantes resultados que
pueden formularse con terminología no teleológica, y que acrecientan nuestro conocimiento
científico de las conexiones causales entre los fenómenos biológicos. Otro aspecto que atrae la
atención hacia las consideraciones teleológicas es su carácter antropomórfico. Una explicación
teleológica tiende a hacemos sentir que verdaderamente "comprendemos" el fenómeno en
cuestión porque está explicado en función de propósitos, con los cuales estamos familiarizados
por nuestra propia experiencia de conducta intencional. Pero es importante distinguir aquí
entre la comprensión en el sentido psicológico de una sensación de familiaridad empática, y la
comprensión en el sentido teórico o cognitivo de exhibir el fenómeno que se debe explicar
como un caso especial de cierta regularidad general. La frecuente insistencia en que la
explicación significa reducir algo desconocido a ideas o experiencias familiares, conduce por
cierto a error. Pues si bien algunas explicaciones científicas tienen este efecto psicológico, en
modo alguno es universal: la libre caída de un cuerpo físico puede decirse que es un fenómeno
más familiar que la ley de gravedad, mediante la cual puede explicarse; y con toda seguridad
las ideas básicas de la teoría de la relatividad resultarán, para muchos, menos familiares que
los fenómenos que explican la teoría. La "familiaridad" del explanans no sólo no es necesaria
para una explicación seria como acabamos de señalar, sino que tampoco es suficiente. Esto se
demuestra en una cantidad de casos en que el explanans propuesto suena sugestivamente
familiar, pero un examen más detenido prueba ser una mera metáfora, o que carece de
capacidad para verificarse, o que no incluye leyes generales y, por lo tanto, no tiene poder
explicativo. Un ejemplo que viene al caso es el intento neovitalista de explicar los fenómenos
biológicos con referencia a una entelequia o fuerza vital. El punto crucial no es aquí cómo se ha
pretendido algunas veces el hecho de que las entelequias no puedan verse u observarse
directamente; pues también esto es verdad respecto de los campos gravitacionales y; no
obstante, es esencial referirse a esos campos para explicar varios fenómenos físicos. La
diferencia decisiva entre ambos casos reside en que la explicación física proporciona: 1)
métodos de prueba, aunque indirectos, de aseveraciones sobre campos gravitacionales, y 2)
leyes generales relacionadas con la fuerza de los campos gravitacionales y la conducta de los
objetos que se mueven en ellos. Las explicaciones por medio de entelequias no satisfacen
ninguna analogía de estas condiciones. No cumplir con esta primera condición comporta una
violación de (R3); hace inaccesibles a la comprobación empírica todos los enunciados sobre
entelequias y, en consecuencia, desprovistos de significación empírica. Faltar a la segunda
condición implica la violación de (R2). Despoja al concepto de entelequia de todo valor
explicativo, porque el poder explicativo nunca reside en un concepto sino en las leyes generales
dentro de las cuales funciona. Por consiguiente, no obstante la sensación de familiaridad que
evoca, el enfoque neovitalista no puede proporcionar comprensión teórica.
Las observaciones precedentes sobre la familiaridad y la comprensión pueden aplicarse, de
manera similar, al criterio sostenido por algunos pensadores de que la explicación - o la
comprensión - de las acciones humanas requiere una comprensión empática de las
personalidades de los sujetos. Esta comprensión de otra persona según el propio
funcionamiento psicológico puede ser un recurso heurístico útil en la búsqueda de principios
psicológicos generales capaces de proporcionar una explicación teórica; pero la existencia de
empatía por parte del científico no constituye una condición necesaria ni suficiente para la
explicación, o la comprensión científica, de ningún acto humano. No es necesaria, porque
algunas veces puede explicarse y predecirse en función de principios generales la conducta de
psicóticos o de gente que pertenece a culturas muy diferentes de la del científico, aun cuando
aquel que establece o aplica esos principios no pueda entender empáticamente a los sujetos. Y
la empatía no es suficiente para garantizar una explicación seria, puesto que puede existir un
fuerte sentimiento de empatía aun en ocasiones en que estamos completamente errados al
juzgar una personalidad dada. Además, como lo ha señalado Zilsel, la empatía conduce
fácilmente a resultados incompatibles; por ejemplo, cuando la población de una ciudad ha
estado sometida a bombardeos aéreos pesados durante mucho tiempo, en el sentido empático
podemos entender que se haya desmoralizado totalmente; pero con igual facilidad podemos
comprender también que haya desarrollado un espíritu de resistencia desafiante. Los
argumentos de este tipo a menudo parecen muy convincentes, pero son de carácter ex post
facto y carecen de significación cognitiva, a menos que se los complete con principios
explicativos verificables en forma de leyes o teorías. En consecuencia, la familiaridad con el
explanans, no importa si se logra mediante el uso de una terminología teleológica o de
metáforas neovitalistas o por otros medios, no indica el contenido cognitivo ni la fuerza
predictiva de una explicación propuesta. Además, el grado en que una idea es considerada
familiar varía de una persona a otra y de un momento a otro, y un factor psicológico de este
tipo no puede servir de normas para evaluar el mérito de una explicación propuesta. El
requisito decisivo para toda explicación sólida es que subsuma el explanandum en leyes
generales.

Sobre la idea de emergencia

Niveles de la explicación. Análisis de la emergencia.

Un fenómeno puede explicarse por un conjunto de leyes de diferentes grados de


generalización. Las posiciones cambiantes de un planeta, por ejemplo, pueden explicarse
mediante la subsunción en las leyes de Kepler, o por derivación de la ley general de la
gravedad, que es más inclusiva, en combinación con las leyes del movimiento; o, finalmente,
por deducción de la teoría de la relatividad que explica y modifica apenas el conjunto de leyes
precedentes.
Con frecuencia se hace una distinción entre los diversos niveles de explicación. El primer nivel
está representado por la subsunción de un fenómeno bajo una ley general que conecta
directamente las características observables; los niveles superiores requieren el empleo de
constructos teóricos más o menos abstractos que funcionan dentro del contexto de alguna
teoría más inclusiva. El concepto de explicación de nivel superior cubre procedimientos de
carácter más bien diferente; uno de los más importantes consiste en explicar una clase de
fenómenos mediante una teoría concerniente a su microestructura. Son ejemplos de este
método la teoría cinética del calor, la teoría atómica de la materia, la teoría electromagnética y
cuántica de la luz y la teoría genética de la herencia. A menudo se cree que sólo el
descubrimiento de una microteoría posibilita una real comprensión científica de cualquier tipo
de fenómeno porque, para decirlo así, sólo ella nos permite un insight del mecanismo interior
del fenómeno. En consecuencia, se ha considerado que las clases de hechos para las que no se
disponía de una microteoría, no estaban realmente entendidas; y todo lo relacionado con el
estatus teórico de los fenómenos que carecen de explicación, se señala como raíz de la
doctrina de emergencia.
Hablando en términos generales, se ha utilizado el concepto de emergencia para caracterizar
ciertos fenómenos como <<nuevos>> y no en el simple sentido psicológico por ser inesperados,
sino en el sentido teórico por ser inexplicables e impredecibles de acuerdo con la información
referente a las partes espaciales u otros componentes de los sistemas en los cuales ocurren los
fenómenos, a los que en este contexto, se denominan con frecuencia <<totalidades>>. Así, por
ejemplo, las características del agua tales como su transparencia y estado líquido a la
temperatura y presión atmosférica ambientes, o su capacidad para saciar la sed, se han
considerado emergentes fundadas en que no hubiese sido posible pronosticarlas a partir del
conocimiento de las propiedades de sus componentes químicos. Por el contrario, se ha dicho
que el peso del compuesto no es emergente sino una siempre <<resusltante>> de sus
componentes y podría haberse pronosticado por una suma sencilla, aun antes de que el
compuesto estuviese formado.

Análisis lógico de la ley y la explicación

Problemas del concepto de ley general

La explicación de un fenómeno consiste en su subsunción dentro de leyes o una teoría. Pero,


¿qué es una ley? ¿qué es una teoría? Interpretaremos el concepto de ley de manera que se
aplique sólo a enunciados verdaderos. El procedimiento alternativo aparentemente plausible
de requerir un alto grado de confirmación antes que la verdad de una ley nos parece
inadecuado: conduciría a un concepto relativizado de ley que podría expresarse con la frase
<<la oración S es una ley relacionada con los elementos de prueba E>>. Esto concuerda con la
significación que se asigna habitualmente, tanto en la ciencia como en la investigación
metodológica, al concepto de ley. Así, por ejemplo, no diríamos que la fórmula general de Bode
para la distancia de los planetas desde el Sol era una ley relacionada con las pruebas
astronómicas disponibles hacia 1770, cuando Bode la propuso, y que perdió su carácter de ley
después del descubrimiento de Neptuno y la determinación de su distancia al Sol; antes
podríamos decir que las pruebas limitadas originales habían señalado una gran probabilidad de
certeza a la suposición de que la fórmula eran una ley, mientras que una información adicional
posterior redujo tanto aquella probabilidad como para que se tuviese prácticamente la
seguridad de que la fórmula de Bode no era verdadera en sentido general, y por lo tanto no era
una ley. (La exigencia de que las leyes sean verdaderas trae como consecuencia que jamás
pudo conocerse definitivamente si un enunciado empírico dado E es una ley; puesto que la
oración que afirma la verdad de E es lógicamente equivalente a E y, por lo tanto, capaz sólo de
adquirir una probabilidad, o grado de confirmación más o menos elevado, respecto de las
pruebas experimentales disponibles en un momento determinado).
Además de ser verdadera, una ley debe cumplir una cierta cantidad de condiciones adicionales
que pueden estudiarse de modo independiente del requisito fáctico de verdad, porque se
refieren, por así decirlo, a todas las leyes lógicamente posibles, sean fácticamente verdaderas o
falsas. Adoptando un término propuesto por Goodman diremos que una oración parece legal si
posee todas las características de una ley general con la posible excepción de la verdad. De ahí
que toda ley sea una oración legal, pero no viceversa. Nuestro problema de analizar la noción
de la ley se reduce así al de explicar el concepto de esta «oración legal». Estableceremos la
clase de estas oraciones legales diciendo que incluyen enunciados analíticos generales, tales
como «una rosa es una rosa», así como las oraciones legales de la ciencia empírica, que tienen
contenido empírico. No será necesario el requisito de que toda oración legal permisible en
contextos explicativos deba pertenecer al segundo tipo; en su lugar, nuestra definición de
explicación será construida de modo que garantice el carácter fáctico de la totalidad de las
leyes
aunque no de cada una de ellas por separado que funcionan en la explicación de un hecho
empírico.
¿Cuáles son las características de las oraciones legales? En primer término, estas oraciones son
enunciados de forma universal, tales como «todos los huevos de petirrojo son de color azul
verdoso», «todos los metales son conductores de la electricidad», «a presión constante, todo
gas se dilata con el aumento de temperatura». Como estos ejemplos lo ilustran, la oración legal
no sólo tiene forma universal sino también condicional; formula una afirmación universal en el
sentido de que si cumple un conjunto de condiciones, C, se cumplirá también otro conjunto
específicamente de condiciones, E. La forma estándar de la expresión simbólica de una oración
legal es, por ende, un condicional universal. Sin embargo, puesto que todo enunciado
condicional puede transformarse en otro no condicional no se considerará esencial para la
oración legal, mientras que será indispensable mantener el carácter universal. Pero el requisito
de la forma universal no es suficiente para caracterizar las oraciones legales. Supongamos, por
ejemplo, que una cesta b contenga en cierto momento t una cantidad de manzanas rojas y
nada más. Entonces, el enunciado

(E1) Toda manzana de la cesta b en el momento t es roja


es verdadero y a la vez de forma universal. No obstante, esta oración no está calificada como
una ley; rehusaríamos, por ejemplo, explicar por medio de la subsunción del hecho de que una
manzana determinada, elegida al azar en la cesta, sea roja. ¿Qué diferencia a E1 de una oración
legal? Dos puntos: el alcance finito y la referencia a un objeto especificado.
Primero, la oración E1 formula, en efecto, una afirmación respecto de un número finito de
objetos, y esto parece irreconciliable con la pretensión de universalidad que se asocia
comúnmente a la noción de ley. Pero, ¿no se consideran <<legales>> las leyes de Kepler
aunque se refieran sólo a un conjunto finito de planetas? Y ¿no estaríamos dispuestos a
considerar como oración legal a la siguiente?:

(E2) La totalidad de los 16 cubos de hielo de la bandeja del refrigerador tienen una temperatura
inferior a 10 grados centígrados

Podemos conceder este punto; pero existe una diferencia esencial entre E1, por un lado, y las
leyes de Kepler y también E2, por el otro; sabemos que estas últimas, si bien de extensión finita,
son consecuencia de leyes más inclusivas cuyo alcance no es limitado, mientras que éste no es
el caso de E1. Adoptando un procedimiento sugerido recientemente por Reichenbach
distinguiremos, por lo tanto, las leyes fundamentales de las derivadas. Denominaremos ley
derivada a un enunciado que tenga carácter universal y se origine de ciertas leyes
fundamentales. Las leyes fundamentales deben satisfacer una determinada condición: alcance
ilimitado. Sería excesivo, no obstante, negar el estatus fundamental de la oración legal a todos
los enunciados que afirman, en efecto, sólo acerca de una clase finita de objetos, porque ello
excluiría una oración tal como «todos los huevos de petirrojo son de color azul verdoso»,
puesto que, presumiblemente, la clase de todos los. huevos de petirrojo (pasados, presentes y
futuros) es finita. Pero otra vez vemos aquí una diferencia esencial entre esta oración y,
digamos, E1. Para
establecer la finitud de la clase de los huevos de petirrojo se requiere conocimiento empírico,
mientras que si se concibe la oración E1 de manera intuitivamente ilegal, los términos «cesta b»
y «manzana» se comprenden como que implican la finitud de la clase de las manzanas que
están en la cesta en el momento t. De esta manera, y por así decirlo, el significado de sus
términos constitutivos, por sí solo sin información fáctica adicional, implica que E1 tiene
extensión finita. Las leyes fundamentales, entonces, deberán interpretarse de modo que
satisfagan la condición de alcance no limitado; la formulación de esta condición remite a lo que
está implicado en «el significado» de ciertas expresiones.
En nuestra búsqueda de una caracterización general de las oraciones legales, tomaremos ahora
en cuenta un segundo indicio que proporciona la oración E1. Además de violar la condición de
extensión no limitada, tiene la peculiaridad de referirse a un objeto particular, la cesta b; y al
parecer, esto también viola el carácter universal de una ley. La restricción que parece indicarse
aquí debiera aplicarse nuevamente sólo a las oraciones legales fundamentales, porque un
enunciado general verdadero sobre la caída libre de los cuerpos físicos en la Luna, si bien se
refiere a un objeto particular, constituiría aún una ley, aunque fuese derivada. En consecuencia,
parece razonable estipular que una oración legal fundamental debe ser de forma universal y no
ha de contener ocurrencias esenciales (es decir, no eliminables) de designaciones de objetos
particulares. Pero, en este punto se presenta una dificultad especialmente seria. Considérese la
oración:

(E3) Todo lo que sea una manzana de la cesta b en el momento t o una muestra de óxido
férrico, será rojo.

Si empleamos una expresión especial, por ejemplo, <<x es una manfer>> como sinónimo de
<<x es o bien una manzana de la cesta b en t o bien una muestra de óxido férrico>>, entonces
el contenido de E3 puede expresarse como sigue:

(E4) Todo lo que es <<manfer>> es rojo.

El enunciado que así se obtiene es de forma universal y no contiene designaciones de objetos


particulares, e igualmente satisface la condición de alcance ilimitado; pero sin embargo es
evidente que E4 no puede calificarse como una oración legal fundamental del mismo modo que
E3. Mientras «manfer» sea un término definido en nuestro lenguaje, puede satisfacer la
dificultad estipulando que después de haber eliminado los términos definidos, una oración
legal fundamental no debe contener ocurrencias esenciales de designaciones de objetos
particulares. Pero esta salida no sirve cuando «manfer», u otro término del mismo tipo,
constituye un predicado primitivo del lenguaje estudiado. Esta reflexión indica que hay que
imponer ciertas restricciones a los predicados (términos de propiedades o relaciones) que
pueden presentarse en las oraciones legales fundamentales. De manera más específica, la idea
sugiere admitir un predicado en una oración legal fundamental sólo cuando sea universal puro
o, digamos, de índole cualitativo puro; expresado de distinto modo, si un enunciado de su
significado no exige hacer referencia a objeto concreto alguno ni a ninguna localización
espaciotemporal. Los términos «suave», «verde», «más caliente que», «mientras», «líquido»,
«con carga eléctrica», «mujer», «padre de», constituyen predicados cualitativos puros,
mientras que «más alto que la torre Eiffel», «medieval», «lunar», «ártico», «Ming» no lo son.
(Al explicar el significado de «más alto que la torre Eiffel», «ser una manzana de la cesta en el
momento t», «medieval», etc., hay que hacer referencia a un objeto específico o a alguno que
pertenezca a un conjunto limitado de objetos). Excluir de las oraciones legales fundamentales
los predicados que no sean cualitativos puros, aseguraría al mismo tiempo el cumplimiento de
la condición de alcance ilimitado, porque el significado de un predicado cualitativo puro no
requiere una extensión finita; y, en realidad, todas las oraciones consideradas antes que violan
la condición de alcance ilimitado hacen referencia explícita o implícita a objetos específicos.

Aspectos de la explicación científica

Introducción

El hombre no sólo quiere sobrevivir en el mundo, sino también mejorar su posición estratégica
dentro de él. Esto hace que sea importante poder hallar maneras confiables de prever cambios
en su ambiente y, si es posible, controlarlos para usarlos en su propio provecho. La formulación
de leyes y teorías que permiten la predicción de sucesos futuros se cuenta entre las más altas
realizaciones de la ciencia empírica; y la medida en la cual ellas responden al anhelo del
hombre de previsión y control la indica el vasto ámbito de sus aplicaciones prácticas que van
desde las predicciones astronómicas hasta los pronósticos meteorológicos, demográficos y
económicos, y desde la tecnología fisicoquímica y biológica hasta el control psicológico y social.
La segunda motivación básica de las indagaciones científicas del hombre es independiente de
tales preocupaciones prácticas. Reside en su pura curiosidad intelectual, en su profundo y
persistente deseo de conocer y de comprenderse a sí mismo y a su mundo. Tan intenso es este
deseo, que en ausencia de un conocimiento más confiable, a menudo se acude a los mitos para
llenar el abismo. Pero al mismo tiempo, muchos de esos mitos ceden el terreno a concepciones
científicas acerca del cómo y el porqué de los fenómenos empíricos.
Entendemos las expresiones <<ciencia empírica>> y <<explicación científica>> en un sentido
que abarca todo el ámbito de la investigación empírica, incluidas tanto las ciencias naturales y
sociales como la investigación histórica. Este uso amplio de las dos expresiones no pretende
prejuzgar sobre la cuestión referida a las semejanzas y diferencias lógicas y metodológicas
entre campos diferentes de la investigación empírica, sino indicar que los procedimientos
utilizados en esos campos diferentes deben ajustarse a ciertas normas básicas de objetividad.
De acuerdo con estas normas, las hipótesis y las teorías deben ser testeables con referencia a
elementos de juicio públicamente discernibles, y su aceptación estará siempre sujeta a la
condición de que puedan abandonarse si se encuentran elementos de juicio adversos o
hipótesis o teorías más adecuadas.
Podemos considerar una explicación científica como una respuesta a una pregunta
concerniente al porqué, por ejemplo: <<¿Por qué los planetas se mueven en órbitas elípticas,
uno de cuyos focos lo ocupa el Sol?>>, <<¿Por qué Hitler declaró la guerra a Rusia?>>. Hay
otras maneras de formular lo que llamaremos preguntas que piden una explicación: podemos
preguntar qué fue lo que condujo a Hitler a su funesta decisión. A veces se indica el objeto de
una explicación, o explanandum, mediante un sustantivo, por ejemplo, cuando pedimos una
explicación de la aurora boreal. Es importante comprender que este tipo de formulación sólo
tiene un significado claro siempre que se la pueda reformular en términos de una pregunta
<<por qué…?>>. Así, en el contexto de una explicación debe considerarse que la aurora boreal
se caracteriza por ciertos rasgos generales distintivos, cada uno de los cuales puede describirse
mediante una cláusula <<que…>>, por ejemplo: que sólo se la encuentra normalmente en
latitudes septentrionales bastante altas, que aparece intermitentemente, etc. Pedir una
explicación de la aurora boreal equivale a solicitar una explicación de por qué sus
manifestaciones se producen de la manera indicada y por qué éstas tienen características
físicas como las que acabamos de mencionar. En verdad, pedir una explicación sólo tiene un
significado claro si se entiende qué aspectos del fenómeno en cuestión deben explicarse; y, en
este caso, el problema que se quiere explicar puede también expresarse en la forma <<¿por
qué se da el caso de que p?>>, donde el lugar de <<p>> está ocupado por un enunciado
empírico que especifica el explanandum. Las preguntas de este tipo serán llamadas preguntas
sobre el porqué que piden una explicación.
Sin embargo, no todas las preguntas sobre el porqué piden explicaciones. Algunas de ellas
solicitan razones en apoyo de una aserción. Enunciados tales como <<debe haber muerto de
un ataque al corazón>>, <<a Platón no le habría gustado la música de Stravinsky>> podrían
provocar la pregunta <<¿por qué debe ser así?>>, que pide no una explicación, sino pruebas,
fundamentos o razones en apoyo de la aserción expresada. Las preguntas de este tipo serán
llamadas preguntas que piden razones o preguntas epistémicas. Expresarlas en la forma <<¿por
qué debe darse el caso de que p?>> es engañoso; es más adecuado mediante una formulación
tal como <<¿por qué debe creerse que p?>> o <<¿qué razones hay para creer que p?>>.
Una pregunta sobre el porqué que pide una explicación normalmente presupone que el
enunciado que ocupa el lugar de <<p>> es verdadero, y solicita una explicación del hecho,
suceso o estado de cosas presunto descrito por él. Una pregunta epistémica sobre el porqué no
presupone la verdad del enunciado correspondiente, sino que, por el contrario, solicita razones
para creer en su verdad. Una respuesta adecuada a la primera, pues consistirá en ofrecer una
explicación de un presunto fenómeno empírico, mientras que una respuesta adecuada a la
segunda ofrecerá razones que convaliden o justifiquen un enunciado. A pesar de estas
diferencias en las presuposiciones y los objetivos, hay importantes conexiones entre los dos
tipos de preguntas; toda respuesta adecuada a una pregunta que pide una explicación, <<¿por
qué se da el caso de que p?>>, también suministra una respuesta potencial a la
correspondiente pregunta epistémica <<¿qué fundamentos hay para creer que p?>>.

Tipos de explicación científica: la explicación deductivo-nomológica

Cuestiones básicas: la explicación D-N y el concepto de ley

La explicación de un fenómeno puede considerarse como un razonamiento según el cual el


fenómeno que se quiere explicar, el fenómeno del explanandum, es de esperar en virtud de
ciertos hechos explicativos. Estos pueden clasificarse en dos grupos: (a) hechos particulares, y
(b) uniformidades expresables por medio de leyes generales.
Si imaginamos expresadas por completo las diversas suposiciones explicativas tácitas o
implícitas, entonces la explicación puede concebirse como un razonamiento deductivo de la
forma:
Aquí, C1, C2, …, Ck son oraciones que describen los hechos particulares aducido; L1, L2, …, Lr, son
leyes generales sobre las que reposa la explicación. Se dirá que estas oraciones, en conjunto,
constituyen el explanans S, donde S puede ser concebido alternativamente como el conjunto
de las oraciones explicativas o como su conjunción. La conclusión E del razonamiento es una
oración que describe el fenómeno aludido en el explanandum; la llamaré oración-explanandum
o enunciado-explanandum. La palabra <<explanandum>> sola se utilizará para significar el
fenómeno del explanandum o la oración-explanandum.
El tipo de explicación cuya estructura lógica está indicada por el esquema (D-N) se denominará
explicación deductivo-nomológica, o explicación D-N; realiza una subsunción del explanandum
bajo principios que tienen el carácter de leyes generales. Así, una explicación D-N responde a la
pregunta <<¿por qué se produjo el fenómeno mencionado en el explanandum?>>, mostrando
que dicho fenómeno resultó de ciertas circunstancias particulares, especificadas en C1, C2, …,
Ck, de acuerdo con las leyes L1, L2, …, Lr. Al señalar esto, el razonamiento demuestra que, dadas
las circunstancias particulares y las leyes en cuestión, la aparición del fenómeno era de
esperar; y es éste el sentido en el cual la explicación nos permite comprender por qué se
produjo el fenómeno. (La explicación científica consiste en subsumir en alguna regla o ley que
exprese un carácter invariante de un grupo de sucesos, los hechos particulares cuya explicación
se le atribuye. Las leyes mismas pueden explicarse de igual manera, mostrando que son
consecuencias de teorías más generales).
En una explicación D-N, pues, el explanandum es una consecuencia lógica del explanans.
Además, en una explicación D-N las leyes generales son esenciales, necesarias para la
deducción del explanandum, es decir, cuya eliminación quitaría validez al razonamiento. Si el
explanans de una explicación D-N determinada es verdadero, vale decir, si la conjunción de sus
oraciones constituyentes es verdadera, diremos que la explicación es verdadera; una
explicación verdadera, claro está, tiene también un explanandum verdadero. Diremos también
que una explicación D-N se halla más o menos firmemente apoyada o confirmada por un
conjunto dado de elementos de juicio según que su explanans esté más o menos firmemente
confirmado por dichos elementos de juicio. Finalmente, entenderemos por una explicación
potencial D-N todo razonamiento que tenga el carácter de una explicación D-N con la diferencia
de que las oraciones que constituyen su explanans no necesitan ser verdaderas. En una
explicación potencial D-N, pues, L1, L2, …, Lr serán lo que Goodman ha llamado oraciones
legales, es decir, oraciones que son similares a las leyes excepto en que pueden ser falsas.
Usamos la noción de explicación potencial, por ejemplo, cuando preguntamos si una ley o
teoría nueva y aún no puesta a prueba brindará una explicación de un cierto fenómeno
empírico. Hablando en términos estrictos, sólo pueden considerarse como leyes los enunciados
legales verdaderos, pues no hablamos de leyes falsas de la naturaleza. La caracterización de las
leyes como oraciones legales verdaderas plantea el importante y desconcertante problema de
dar una caracterización clara de las oraciones legales sin utilizar el concepto de ley. Las
oraciones legales pueden tener muchas formas lógicas diferentes. Algunos paradigmas de
oraciones nómicas, tal como <<todos los gases se dilatan cuando se los calienta a presión
constante>>, puede concebirse como de la forma condicional universal simple; otros contienen
una generalización tanto universal como existencial, como la oración <<para todo compuesto
químico, existe una gama de temperaturas y presiones a las cuales el compuesto es líquido>>.
Pero las oraciones legales no pueden caracterizarse en función de su forma solamente. Por
ejemplo, no todas las oraciones de la forma condicional universal simple son legales; por ende,
aunque sean verdaderas, no son leyes. Las oraciones <<todos los miembros de la Junta
Directiva del Colegio Greenbury son calvos>> y <<todas las peras de esta cesta son dulces>>
ilustran esta afirmación. Goodman señala una característica que distingue a las leyes de
oraciones como las anteriores: las primeras pueden dar origen a enunciados condicionales
contrafácticos y subjuntivos, mientras que las segundas no. Así, la ley sobre la dilatación de los
gases puede servir para dar apoyo a enunciados tales como <<si se hubiera calentado el
oxígeno contenido en este cilindro bajo presión constante, entonces se habría dilatado>>;
mientras que el enunciado acerca de la Junta Directiva del Colegio no da ningún apoyo al
condicional subjuntivo <<si Robert Crocker fuera miembro de la Junta Directiva del Colegio
Greenbury entonces sería calvo>>. Podríamos agregar que los dos tipos de oraciones difieren,
análogamente, en poder explicativo. La ley de los gases, en combinación con datos particulares
adecuados, como que el oxígeno del cilindro fue calentado bajo presión constante, puede
servir para explicar por qué aumentó el volumen del gas; pero el enunciado acerca de la Junta
Directiva, combinado análogamente con un enunciado tal como >>Harry Smith fue miembro de
la Junta Directiva del Colegio Greenbury en 1964>> no permite explicar por qué Harry Smith es
calvo.
Los ejemplos de oraciones no legales comparten una característica, cada uno de ellos sólo se
aplica a un número finito de casos o ejemplo individuales. Sin duda, una oración legal no debe
estar limitada a un número finito de casos: no debe ser equivalente a una conjunción finita de
oraciones singulares o, dicho brevemente, debe tener una forma esencialmente general. Pero
las dos generalizaciones anteriores no legales no quedan excluidas por esta condición: ellas no
son lógicamente equivalentes a conjunciones finitas correspondientes ya que no enuncian
específicamente quiénes son los miembros de la Junta Directiva, o qué peras se encuentran en
la cesta. ¿Debemos, pues, negar carácter legal también a toda oración general que sólo tiene
un número finito de casos? Seguramente esto sería inadecuado. ¿Cuál sería el número de
ejemplos que debería tener una ley? Afirmar cualquier número finito particular sería arbitrario;
y el requisito de que debe haber infinitos ejemplos reales plantearía obvias dificultades. El
concepto de ley científica no puede someterse a ninguna condición concerniente al número de
casos, con excepción del requisito que excluye la equivalencia lógica con enunciados singulares.
Por otra parte, debemos observar que el concepto de <<caso>> o <<ejemplo>> de un
enunciado general no es en modo alguno tan claro como parece. Consideremos, por ejemplo,
enunciados generales de la forma <<todos los objetos que tienen la propiedad F tienen
también la propiedad G>> o, brevemente, <<todos los F son G>>. Parece natural admitir el
criterio de que un objeto particular i sea un caso de tal enunciado si, y sólo si, i tiene la
propiedad F y la propiedad G o, brevemente, si i es al mismo tiempo F y G. Esto implicaría que
si no hay objetos que poseen la propiedad F, el enunciado general no tendría ejemplos. Sin
embargo, el enunciado es lógicamente equivalente a <<todos los no-G son no-F>>, el cual,
según el criterio mencionado, bien puede tener ejemplos aunque no haya ningún F. Así, el
enunciado general <<todos los unicornios se alimentan de tréboles>> no tendría ejemplos,
pero su equivalente <<todo lo que no se alimenta de tréboles no es un unicornio>> tendría
muchos ejemplos, quizá infinitos. De esta manera, de dos enunciados generales lógicamente
equivalentes, uno podría no tener ejemplos y el otro tenerlos infinitos. Esto hace inaceptable
dicho criterio, pues tales oraciones equivalentes expresan la misma ley y, por ende, deben
estar ilustradas por los mismos objetos.
Hay también otra característica común de nuestras generalizaciones no legales que parece
poder suministrar un criterio para la distinción que estamos examinando: todas ellas contienen
términos tales como <<esta cesta>> y <<la Junta Directiva del Colegio Greenbury>>, que directa
o indirectamente se refieren a objetos, personas o lugares particulares. Los predicados de las
oraciones legales fundamentales deben ser todos tales que la especificación de su significado
no exija referencia alguna a ningún objeto o locación particular. Aunque, la referencia a
individuos particulares no siempre priva a un enunciado general de poder explicativo, como lo
muestra la ley de Galileo sobre la caída libre, cuya formulación completa hace referencia a la
Tierra. Ahora bien, es cierto que la ley de Galileo puede considerarse como derivable de las
leyes de la teoría newtoniana que tienen el carácter de oraciones legales fundamentales, de
modo que una explicación basada en la ley de Galileo también puede ser dada por medio de
leyes fundamentales. Pero es indudable que no puede darse por supuesto que todas las otras
leyes que mencionan individuos particulares puedan derivarse análogamente de leyes
fundamentales.
Los ejemplos que hemos considerado hasta ahora ilustran la explicación deductiva de hechos
particulares por medio de leyes empíricas. Pero la ciencia empírica plantea la pregunta <<¿por
qué?>> también con respecto a las uniformidades expresadas por tales leyes, y a menudo las
responde, asimismo, por medio de una explicación deductivo-nomológica en la cual subsume
la uniformidad en cuestión bajo leyes más inclusivas o bajo principios teóricos. Por ejemplo, las
preguntas de por qué los cuerpos en caída libre se mueven de acuerdo con la ley de Galileo, y
por qué el movimiento de los panetas presenta las uniformidades expresadas por las leyes de
Kepler se responden mostrando que estas leyes sólo son consecuencias especiales de las leyes
newtonianas de la gravedad y del movimiento.
En general, una explicación basada en principios teóricos ampliará y profundizará nuestra
comprensión de los fenómenos empíricos a los que ella se refiere. Ampliará la comprensión
porque la teoría, por lo general, abarcará un ámbito mayor de sucesos que las leyes empíricas
establecidas previamente. Por ejemplo, la teoría newtoniana de la gravitación y el movimiento
abarca la caída libre, no solamente en la Tierra, sino también en otros cuerpos celestes; y no
solamente los movimientos planetarios, sino también el movimiento relativo de las estrellas
dobles, las órbitas de los cometas y de los satélites artificiales, los movimientos de los
péndulos, ciertos aspectos de las mareas y muchos otros fenómenos. Y una explicación teórica
profundiza nuestra comprensión al menos por dos razones. En primer término, presenta las
diferentes regularidades que presentan diversos fenómenos, por ejemplo, las que acabamos de
mencionar con referencia a la teoría de Newton, como manifestaciones de unas pocas leyes
básicas. En segundo término, las generalizaciones aceptadas antes como enunciaciones
correctas de regularidades empíricas aparecerán, habitualmente, como aproximaciones sólo de
ciertos enunciados legales implicados por la teoría explicativa, y que tiene valides dentro de
cierto ámbito limitado. Y en la medida en que los tests de las leyes, en su anterior formulación,
se limitaban a los casos que caen dentro de este ámbito, la explicación teórica también indica
por qué esas leyes, aunque no son verdaderas en general, han hallado confirmación.
Cuando una teoría científica es superada por otra, en el sentido en el cual la mecánica y la
electrodinámica clásicas fueron superadas por la teoría especial de la relatividad, por lo general
la nueva teoría tiene un ámbito explicativo más amplio que incluye fenómenos no explicados
por la teoría anterior; y, por lo común, brinda explicaciones aproximadas de las leyes empíricas
implicadas por su predecesora. Así, la teoría especial de la relatividad implica que las leyes de
la teoría clásica se cumplen con mucha aproximación en los casos en los que los movimientos
implicados sólo tienen velocidades pequeñas en comparación con la de la luz.
La concepción general de la explicación por la subsunción deductiva bajo leyes generales o
principios teóricos, tal como ha sido esbozada en esta sección, será llamada modelo deductivo-
nomológico, o modelo D-N de explicación. Como indica claramente el esquema (D-N), no
suponemos que una explicación deductivo-nomológica sólo invoca una ley abarcante; nuestros
ejemplos revelan que en la explicación de un fenómeno pueden invocarse muchas leyes
diferentes. Pero, si una explicación tiene la forma (D-N), entonces las leyes L1, L2, …, Lr
invocadas en el explanans implican lógicamente una le L* que basta por sí misma para explicar
el hecho mencionado en el explanandum con referencia a las condiciones particulares
indicadas en las oraciones C1, C2, …, Ck. Esta ley L* establece que cuando se cumplen las
condiciones del tipo descrito en las oraciones C1, C2, …, Cr, entonces se produce un hecho del
tipo descrito por la oración-explanandum. Tomemos un ejemplo: un trozo de hielo flota en un
vaso grande de agua, a la temperatura ambiente. Cabría esperar que el nivel del agua se
elevara a medida que el hielo se derritiese; en realidad, permanece igual. Las leyes sobre las
cuales se basa la explicación incluyen el principio de Arquímedes, una ley concerniente al
derretimiento del hielo a la temperatura ambiente, el principio de la conservación de la masa,
etc. ninguna de estas leyes menciona el vaso de agua particular o el trozo de hielo particular al
que se refiere la explicación. Luego, las leyes no sólo implican que a medida que se derrite ese
trozo particular de hielo en ese vaso particular, el nivel del agua no cambia, sino más bien el
enunciado general L* según el cual, en el mismo tipo de circunstancias, es decir, cuando
cualquier trozo de hielo flota en el agua de cualquier vaso a la temperatura ambiente, se
produce el mismo tipo de fenómeno, o sea, el nivel del agua no cambia. La ley L* por lo común
será <<más débil>> que las leyes L1, L2, …, Lk: es decir, es lógicamente implicada por la
conjunción de estas leyes, pero, en general, no implicaría tal conjunción. Así, en nuestro
ejemplo, una de las leyes explicativas originales también se aplica a la flotación de un trozo de
mármol en el mercurio o de un bote en el agua, mientras que L* sólo se refiere al caso del hielo
que flota en el agua. Pero evidentemente, L* en conjunción con C1, C2, …, Cr implica por lógica E
y puede utilizarse para explicar, en este contexto, el hecho descrito por E. por lo tanto,
podríamos llamar a L* una ley abarcante mínima implícita en una explicación D-N dada. Pero si
bien tales leyes podrían usarse con propósitos explicativos, el modelo D-N no restringe en
modo alguno las explicaciones deductivo-nomológicas al uso de leyes mínimas. En verdad, tal
restricción no haría justicia a un objetivo importante de la investigación científica, a saber, el de
establecer leyes y teorías de ámbito amplio, en el cual podrían subsumirse generalizaciones
más estrechas como casos especiales o como cercanas aproximaciones a ellas. (En uno de sus
ensayos Feyerabend criticó el modelo deductivo de explicación por conducir <<a la exigencia…
de que todas las teorías exitosas en un dominio determinado sean consistentes entre sí>>, o
con más detalle, de que <<sólo son admisibles (para la explicación y predicción) en un dominio
dado aquellas teorías que contienen a las ya usadas en este dominio o, al menos, son
consistentes con ellas>>. Feyerabend arguye correctamente que esta exigencia entra en
conflicto con el procedimiento científico real y es inaceptable sobre fundamentos
metodológicos. Pero se equivoca totalmente en su afirmación, para la que no brinda ninguna
justificación, de que concebir la explicación como una subsunción deductiva en leyes generales
o principios teóricos implica la máxima metodológica repudiada. En realidad, el modelo D-N de
explicación sólo concierne a la relación entre el explanans y el explanandum y no implica
absolutamente nada acerca de la compatibilidad de los diferentes principios explicativos que
podrían aceptarse sucesivamente en un campo determinado de las ciencias empíricas. En
particular, no implica que una nueva teoría explicativa sólo pueda aceptarse con la condición
de que sea lógicamente compatible con las aceptadas antes. Un mismo fenómeno, o conjunto
de fenómenos, puede ser subsumible deductivamente en leyes y teorías distintas y
lógicamente incompatibles. Por ejemplo: el hecho de que tres objetos a, b y c, cada uno de los
cuales tiene la propiedad P, posean también la propiedad Q puede explicarse deductivamente
por la hipótesis H1, según la cual solamente los P son Q, y alternativamente por la hipótesis H2,
según la cual todos los P y también algunos no-P son Q; es decir, la oración-explanandum <<Qa
^ Qb ^ Qc>> puede ser deducida de <<Pa ^ Pb ^ Pc>> en conjunción con H1 o H2, aunque H1 y
H2 sean lógicamente incompatibles. Así una <<nueva<< teoría explicativa para determinada
clase de fenómenos puede explicar deductivamente tales fenómenos aunque por lógica sea
incompatible con una teoría anterior que también los explique en forma deductiva. Pero las
teorías rivales no pueden ser ambas verdaderas, y bien podría ser que la anterior teoría fuera
falsa. De ahí que sea realmente incorrecto el principio criticado por Feyerabend. Pero esta
observación no afecta al modelo D-N de explicación, que no implica para nada tal principio).

La explicación causal y el modelo D-N

A menudo se concibe la explicación de un suceso particular como indicando aquello que lo


<<causó>>. Pero las atribuciones causales de esta especie presuponen leyes adecuadas
(generales) que vinculan la <<causa>> con el <<efecto>>. Así, este tipo de explicación causal se
ajusta al modelo D-N.
Consideremos primero el uso explicativo de los enunciados generales de conexión causal: éstos
afirman que un hecho de cierto tipo A causa un hecho de otro tipo B. podemos decir que en el
caso más simple un enunciado de este tipo afirma una ley según la cual, cuando se produce un
hecho del tipo A, entonces se produce un hecho correspondiente del tipo B, en el mismo lugar
o en un lugar diferente especificable. Scriven: <<Decir que X causa Y equivale a decir que, en
condiciones adecuadas, un X será seguido por un Y>>. Cuando se usa este tipo de locución
causal, habitualmente hay cierto conocimiento de cuáles son las condiciones básicas
<<adecuadas>> o <<normales>> que se presuponen en el contexto dado. En el contexto de
explicación, debe admitirse que una <<causa>> es un conjunto más o menos complejo de
circunstancias y hechos que podría describirse por un conjunto de enunciados C1, C2, …, Ck. Y
como lo indica el principio <<a igual causa, igual efecto>>, la afirmación de que esas
circunstancias, conjuntamente, causaron un hecho determinado implica que siempre y cuando
se den las circunstancias del tipo en cuestión, se producirá un hecho del tipo que se quiere
explicar. Así, la explicación causal afirma implícitamente que hay leyes generales, digamos L1,
L2, …, Lr, en virtud de las cuales la aparición de los antecedentes causales mencionados en C1,
C2, …, Ck es una condición suficiente para la aparición del hecho señalado en el explanandum.
Esta relación entre factores causales y efecto se refleja en nuestro esquema (D-N): la
explicación causal es, al menos implícitamente, deductivo-nomológica.
En términos más generales, cuando se dice que un hecho individual b ha sido causado por otro
hecho individual a, está implícita la afirmación de que siempre que se realiza <<la misma
causa>> se producirá <<el mismo efecto>>. Pero esta afirmación no debe ser entendida en el
sentido de que cuando se da a también se da b; pues a y b son hechos individuales de
locaciones espacio-temporales particulares, por lo cual sólo pueden darse una vez. Más bien, a
y b deben considerarse como hechos particulares de ciertos tipos de los cuales puede haber
muchos casos. Y la ley tácitamente implicada por la afirmación de que b, como hecho de tipo
B, fue causado por a, como hecho de tipo A, es un enunciado general de conexión causal que
afirma que, en condiciones adecuadas, todo caso de A va acompañado invariablemente por un
caso de B.

En la medida en que un enunciado de causación individual deja indefinidas las condiciones


antecedentes, y por ende también las leyes explicativas requeridas, es como una nota en la que
se dice que hay un tesoro oculto en alguna parte. Su significación y su utilidad aumentarán a
medida que se circunscriba con mayor precisión la ubicación del tesoro, a medida que las
condiciones atinentes al caso y las leyes abarcantes correspondientes sean determinadas con
creciente claridad. En algunos casos, esto se puede lograr muy satisfactoriamente; entonces,
aparece la estructura de leyes abarcantes y es posible someter a prueba el enunciado que
expresa la conexión causal individual. En cambio, cuando las condiciones o leyes del caso
permanecen indefinidas en alto grado, la enunciación de una conexión causal tiene más bien la
naturaleza de un programa, de un esbozo, de explicación en términos de leyes causales;
también se la puede considerar como una «hipótesis de trabajo» que puede resultar valiosa si
da una orientación nueva y fructífera a la investigación ulterior. El tipo de prueba estadística,
por ejemplo, es el que se aduce en apoyo de afirmaciones como la de que fumar cigarrillos es
<<una causa de>> o <<un factor causante del>> cáncer de pulmón. En este caso, las leyes
causales presuntas no pueden formularse explícitamente por el momento. Así, la afirmación
nomológica implicada por esta conjetura causal es de tipo existencial; tiene el carácter de una
hipótesis de trabajo para la investigación posterior. La prueba estadística aducida presta apoyo
a la hipótesis y sugiere nuevas investigaciones tendientes a determinar con mayor precisión las
condiciones en las cuales fumar da origen al cáncer de pulmón.
Los mejores ejemplos de explicaciones que se ajustan al modelo D-N se basan en teorías físicas
de carácter determinista. Una teoría determinista trata de los cambios de <<estado>> de
sistemas físicos de algún tipo especificado. El estado de tal sistema en un momento dado está
caracterizado por los valores que adoptan en ese momento ciertas características cuantitativas
del sistema, las llamadas variables de estado. Y las leyes especificadas por tal teoría para los
cambios de estado son deterministas en el sentido de que, dado el estado del sistema en un
momento cualquiera, ellas determinan su estado en cualquier otro momento, anterior o
posterior. Por ejemplo, la mecánica clásica brinda una teoría determinista para un sistema de
masas puntuales (o cuerpos que son prácticamente pequeños en comparación con sus
distancias) que se mueven sólo bajo la influencia de su mutua atracción gravitacional. Se define
el estado de tal sistema en un momento dado como determinado por las posiciones y las
cantidades de movimiento de sus cuerpos componentes en ese momento, sin incluir otros
aspectos que puedan estar sujetos a cambio, como el color o la constitución química de los
cuerpos en movimiento. La teoría suministra un conjunto de leyes -esencialmente las leyes
newtonianas de la gravedad y del movimiento- que, dadas las posiciones y las cantidades de
movimiento de los elementos de tal sistema en un momento cualquiera, determinan
matemáticamente sus posiciones y cantidades de movimiento en cualquier otro instante. En
particular, esas leyes permiten ofrecer una explicación D-N del hecho de que el sistema esté en
un cierto estado en un momento dado, especificando en las oraciones C1, C2, …, Ck del esquema
(D-N) el estado del sistema en un momento anterior. La teoría mencionada ha sido aplicada,
por ejemplo, a la explicación de los movimientos de los planetas y cometas, así como a los
eclipses solares y lunares.
En el uso explicativo o predictivo de una teoría determinista, pues, la noción de causa como
suceso antecedente más o menos bien circunscrito ha sido reemplazada por la de estado
antecedente del sistema total, que suministra las «condiciones iniciales» para el cálculo,
mediante la teoría, del estado posterior que se trata de explicar. Si el sistema no está aislado,
es decir, si pueden actuar sobre el sistema influencias externas importantes durante el período
que va del estado inicial invocado al estado que se quiere explicar, las circunstancias
particulares que deben enunciarse en el explanans deben incluir esas influencias externas; y
son estas «condiciones-límite», junto con las «condiciones iniciales», las que reemplazan la
noción cotidiana de causa y son especificadas por los enunciados C1, C2, …, Ck en la
representación esquemática (D-N) de la explicación deductivo-nomológica.
La explicación causal, con sus diversos grados de claridad y precisión no es, sin embargo, el
único modo de explicación que se ajusta al modelo D-N. por ejemplo, la explicación de una ley
general por subsunción en principios teóricos, evidentemente, no es una explicación por
causas. Pero aun cuando se las utiliza para explicar hechos individuales, no siempre las
explicaciones D-N son causales. Por ejemplo, el hecho de que un péndulo simple determinado
tarde dos segundos para completar una oscilación podría explicarse señalando que su longitud
es de 100 centímetros y que el período t (en segundos) de cualquier péndulo simple está
relacionado con su longitud l (en centímetros) por una ley que expresa una relación
matemática entre la longitud y el período del péndulo en un mismo momento. Las leyes de
este tipo son llamadas a veces leyes de coexistencia, para distinguirlas de las leyes de sucesión
que se refieren a los cambios temporales de un sistema. Entre estas últimas se encuentran, por
ejemplo, la ley de Galileo y las leyes de los cambios de estado de sistemas incluidos en una
teoría determinada. La explicación causal con referencial a hechos antecedentes presupone
claramente leyes de sucesión; en el caso del péndulo, donde sólo se invoca una ley de
coexistencia, seguramente nadie diría que el hecho de que el péndulo tenga un período de dos
segundos sea causado por el hecho de que su longitud fuera de 100 centímetros.
Echeverría, J. – Introducción a la Metodología de la Ciencia.

El Círculo de Viena

Introducción

Aunque tenga a Hume y a Comte como predecesores lejanos, el Círculo de Viena es una
escuela netamente alemana en su origen. Tras la crítica del materialismo mecanicista por parte
del neokantismo de Helmholtz y Hermann Cohen con su escuela de Marburgo, el físico Ernst
Mach derivó hacia un neopositivismo que negaba todo tipo de elementos a priori en las
ciencias empíricas. Paralelamente, la física teórica iba a dar un giro fundamental con la
aparición de la teoría einsteiniana de la relatividad y de la mecánica cuántica, cambios que
tuvieron una influencia enorme en los neopositivistas. La incidencia del convencionalismo de
Poincaré y Duhem también se dejó sentir en el Círculo de Viena, al igual que la creación de la
lógica matemática, perfectamente configurada a partir de la publicación de los Principia
Mathematica por Russell y Whitehead en 1905.
Ya en 1907, el economista Neurath había fundado un grupo de trabajo con el matemático Hahn
y el físico Frank, que se ocupaba de filosofía de la ciencia, término netamente opuesto en
Alemania a la Naturphilosophie, en la medida en que rechazaba la especulación metafísica
sobre las ciencias de la naturaleza, y propugnaba el contacto directo de los filósofos con los
científicos. En este sentido, la publicación del Tractatus Logico-Philosophicus de Wittgenstein
en 1921, con su célebre tesis según la cual <<el mundo es la totalidad de los hechos, no de las
cosas>>, reforzó notablemente las ideas neopositivistas, máxime por cuanto Wittgenstein
ofrecía un enlace perfectamente adecuado entre la tradición empirista y la nueva lógica
matemática: Schröder y Hilbert, junto con la Escuela de Varsovia, pasaron a ser referencias
obligadas desde la misma constitución del Círculo de Viena.
Momento importante fue la publicación en 1923 de Der logische Aufbau der Welt por Carnap.
La distinción de Russell entre hechos atómicos y moleculares, con la paralela distinción entre
proposiciones atómicas y moleculares, permitía aplicar el aparato de la lógica de enunciados a
las ciencias con contenido empírico. Por este motivo pasó a ser habitual la denominación
empirismo lógico o, incluso, atomismo lógico, junto a otras como empirismo científico o
empirismo consistente. En 1926 surge la Sociedad de Ernst Mach, formada por este mismo
grupo
de pensadores, los cuales a partir del Manifiesto de 1929 pasan a denominarse definitivamente
Círculo de Viena. Con ellos vino a confluir la Escuela de Berlín, formada en torno a Hans
Reichenbach, y que contó con figuras como Richard van Mises y posteriormente Carl Hempel.
También el conductismo norteamericano, por lo que se refiere a la psicología, acabó
coincidiendo con las posturas básicas del Círculo, motivo por el cual en 1929 ya estaba en
condiciones de organizar su primer congreso internacional en Praga, que tuvo continuidad en
las reuniones de Konigsberg, Copenhague, otra vez Praga, Paris y Cambridge.
En 1930 salió la revista Erkenntnis, bajo la dirección de Carnap y de Reichenbach. Asimismo se
publicaron una serie de monografías bajo el lema «Ciencia unificada», y se logró llegar a la fase
de máxima actividad en la primera mitad de la década de los treinta. Pero el ascenso del
nazismo, junto a las diversas vicisitudes personales de miembros relevantes del Círculo (Carnap
y Frank pasaron a ser catedráticos en Praga, Feigl se trasladó a Iowa, y Hahn murió en 1934),
señalaron el principio del fin del Círculo de Viena. La condición de judíos de muchos de sus
miembros contribuyó en buena medida a que comenzasen a pensar en salir de los países de
habla alemana, y así Carnap se estableció en Chicago en 1936, y Neurath marchó a Holanda
tras el asesinato de Moritz Schlick en 1938, a manos de un perturbado. Neurath trató de
continuar la publicación de Erkenntnis en La Haya, bajo el título de The Journal of Unified
Science, y Carnap sacó a la luz en los Estados Unidos la Internacional Enciclopedy for the
Unified Science. Finalmente, el propio Feigl hubo de huir a los EE.UU., y el nazismo disolvió los
grupos de Berlín y de Varsovia, con lo cual el Círculo de Viena dejó de existir como tal.
Esto no significa que su influencia decayera. Muy al contrario. La emigración de varios de sus
miembros a los Estados Unidos y a otros países, prestigiados por la aureola de perseguidos por
el nazismo, permitió una rápida internacionalización de sus teorías, principalmente en los
países y universidades anglosajones. Ello dio lugar, si se quiere, a una segunda fase del
empirismo lógico. Aquí adoptaremos el criterio de distinguir estas dos etapas, tanto por
motivos históricos como por las diferencias entre las posturas del Círculo de Viena
propiamente dicho y de lo que más tarde se ha venido en llamar concepción heredada.

La ciencia unificada

El proyecto institucional -y también teórico- común a casi todos los miembros del Círculo de
Viena es la elaboración de la Enciclopedia para la ciencia unificada. Dentro de la tradición de
Mach, Avenarius, etc., sus posturas son netamente contrarias a la metafísica, y muy
particularmente a tendencias como las de Hegel o Heidegger. Carnap escribió el célebre
artículo «La superación de la metafísica mediante el análisis lógico del lenguaje», afirmando
que «en el campo de la metafísica, el análisis lógico ha conducido al resultado negativo de que
las pretendidas proposiciones de dicho campo carecen totalmente de sentido». Los textos
metafísicos clásicos están constituidos por pseudoproposiciones, totalmente estériles desde el
punto de vista del conocimiento científico. Según Carnap, en esas obras se encuentran dos
tipos de pseudoproposiciones: unas porque contienen palabras a las que con criterio erróneo
se supone un significado, y otras que están mal construidas sintácticamente. Lo que luego ha
llamado Hempel criterio empirista de significado, así como la inadecuación de la forma de las
proposiciones filosóficas a las prescripciones de la lógica matemática, permitieron al
positivismo lógico aplicar radicalmente la navaja de Ockham, descartando del pensamiento
científico numerosos conceptos y trabajos llevados a cabo por la filosofía especulativa.
El proyecto del Círculo estriba en conformar una filosofía científica. Las matemáticas (y la
lógica), así como la física, son los dos grandes modelos a los que debe tender toda forma de
discurso científico. El programa positivista de Comte en el siglo XIX debía ser culminado,
convirtiendo la biología, la psicología y la sociología en ciencias positivas. En la convocatoria de
la Preconferencia de Praga, en 1934, cuyo objeto era preparar el Primer Congreso Internacional
sobre Ciencia Unificada, este objetivo se señala como general para todas las ciencias: <<Hay
que tratar sobre los fundamentos lógicos de todos los ámbitos científicos, y no sólo de la
matemática y de la física>>. El tema del que iba a ocuparse inicialmente era <<Filosofía
científica», pero se modificó: «Congreso para la Unidad de las Ciencias». Se convocaba a
científicos de diversas disciplinas para reflexionar sobre la unidad de la ciencia y sobre la
manera de lograrla: los problemas lógico-sintácticos, los de la inducción y la probabilidad, las
aplicaciones de la lógica a otras disciplinas, la sociología científica y la historia de la ciencia eran
señalados expresamente como ámbitos de trabajo del Congreso. Pero, de hecho, la historia de
la ciencia fue muy poco investigada por el Círculo de Viena, que abundó, en cambio, en
trabajos sobre biología, psicología y semiótica, entendidas desde un punto de vista conductista.
Entre las distintas tendencias existentes dentro del Círculo en relación con dicha unificación de
la ciencia, acabó imponiéndose el fisicalismo, formulado por Otto Neurath, y aceptado
finalmente por Carnap, cuyo estricto empirismo e inductivismo le había acercado en un
principio
al solipsismo. El fisicalismo se interesa por los enunciados observacionales, que serían la base
de cada una de las ciencias positivas. Al comparar la forma lógica de dichos enunciados (por
ejemplo, Karl observa y la máquina fotográfica saca fotos) se comprueba que es la misma: la
unificación de la ciencia debe llevarse a cabo reduciendo todas las proposiciones
observacionales a lenguaje fisicalista, con lo cual se mostraría que existe un núcleo común a
todas las ciencias positivas. La reducción a lenguaje fisicalista es, pues, el medio de llevar a
cabo el programa para la unificación de la ciencia, y para ello hay que partir siempre de
enunciados empíricos, y preferentemente observacionales.

El lenguaje fisicalista

Carnap defendió en un primer momento la reducción de los conceptos sociales, culturales e


históricos a los conceptos del psiquismo propio, mediante reducciones sucesivas: tanto los
conceptos ajenos como los propios debían ser reducidos primero a conceptos físicos, y luego a
conceptos psíquicos propios. Los fenómenos del psiquismo individual, en la medida en que
traducen hechos físicos, fundamentarían desde el punto de vista epistemológico la reducción
del conocimiento de las distintas ciencias a una misma ciencia unificada. Pero esta posición
fenomenalista de Carnap encontró oposición, por no garantizar suficientemente la
intersubjetividad del conocimiento científico. De ahí que el fisicalismo, que se basaba
directamente en proposiciones expresadas en lenguaje observacional, y con la misma forma
lógica para todas las ciencias empíricas, acabara imponiéndose. Tal y como afirma el propio
Carnap en 1932: <<el lenguaje fisicalista es un lenguaje universal, esto es, un lenguaje al cual
puede traducirse cualquier proposición>>.
Dicho lenguaje físicalista tiene como elemento característico y constitutivo las proposiciones
protocolares, las cuales fueron estudiadas por Otto Neurath en su conocido artículo titulado,
precisamente, <<Proposiciones protocolares».
Según Neurath, la ciencia unificada consta de proposiciones protocolares y de proposiciones no
protocolares; en todo caso, unas y otras son proposiciones fácticas. Las primeras no son las
proposiciones primarias (por ejemplo, para el sujeto individual), como a veces tendió a pensar
Carnap, sino que son discernibles por su forma lingüística: Por ejemplo, una proposición
protocolar completa podría decir: «Protocolo de Otto a las 3.17: {la forma lingüística del
pensamiento de Otto a las 3.16 era: (a las 3.15 había en el cuarto una mesa percibida por
Otto)}». Todavía estamos, sin embargo, en un lenguaje físicalista trivial. El lenguaje fisicalista
altamente científico, que estaría completamente depurado de elementos metafísicos, exigiría
que cada uno de los términos presentes en dicha proposición (por ejemplo, 'Otto') fuese
sustituido por un sistema de determinaciones fisicalistas, por ejemplo, definiendo la posición
del nombre 'Otto' en relación a otros nombres propios: ' Carlos', ' Enrique', etc. Pero en una
proposición protocolar del lenguaje fisicalista trivial, es esencial que aparezca algún nombre
propio, con lo cual se trata de conservar el carácter observacional de dicha proposición.
Las leyes científicas y, en general, los enunciados utilizados por los científicos, surgirían a partir
de las proposiciones protocolares por vía inductiva. Esta es otra de las características
principales, desde el punto de vista metodológico, del Círculo de Viena, así como de la Escuela
de Berlín: las ciencias empíricas están basadas en la inducción.
Por supuesto, las proposiciones protocolares no pueden contradecirse; Neurath precisa que, en
estos casos, también es posible eliminar proposiciones protocolares, por su forma, del sistema
científico. En este sentido, las proposiciones protocolares requieren verificación, y están
regidas por el criterio empirista de significado.

El criterio empirista de sigificado

El Círculo de Viena distinguió la ciencia de la metafísica basándose en un criterio


epistemológico de significatividad cognoscitiva. Entre la multiplicidad de enunciados posibles,
hay dos tipos propiamente científicos: las proposiciones analíticas o contradictorias y las que
pueden ser confirmadas por la experiencia. Las primeras recogen los enunciados de las
matemáticas, de la lógica y, en general, de las ciencias formales. El positivismo lógico considera
todas estas ciencias no empíricas o, si se quiere, estrictamente sintácticas. En cuanto a las
ciencias que poseen un contenido empírico, todos y cada uno de sus enunciados han de ser
confirmables, al menos en principio, por la experiencia.
La verificabilidad pasa a ser, por tanto, el criterio para distinguir la ciencia de otros tipos de
saber. Pero, a su vez, este criterio de significación empírica ha sufrido algunas modificaciones.
Tal y como afirma Hempel en su artículo «Problemas y cambios en el criterio empirista de
significado» el Círculo de Viena exigía al principio que dicha verificación fuese completa y por
medio de la observación: <<Una oración S tiene significado empírico si y sólo si es posible
indicar
un conjunto finito de oraciones de observación O1, O2, …, On, tales que, si son verdaderas, S es
necesariamente verdadera también>>.
Al depender dicho criterio de las propiedades del condicional lógico, hubo que matizarlo, dado
que toda proposición analítica sería inferible a partir de un conjunto finito de oraciones
cualesquiera; y asimismo oraciones observacionales contradictorias entre sí nos permitirían
inferir correctamente cualquier proposición, que de esta manera tendría significación empírica.
Para evitar estas consecuencias inadecuadas de la primera formulación del criterio, hubo que
excluir de la significatividad empírica los enunciados analíticos, así como exigir que el conjunto
de proposiciones observacionales On fuese consistente.
Esto produjo dos consecuencias importantes: por una parte, las ciencias formales quedaron
radicalmente escindidas de lo que Carnap llamó ciencias reales, y por otra, las ciencias
empíricas debían satisfacer determinados requisitos lógicos en sus inferencias, y en particular
debían de adaptarse a las formalizaciones derivadas de la lógica matemática entonces vigente.
El modelo de una ciencia será aquel que ha podido ser axiomatizado, total o parcialmente, y
que funciona en su razonamiento en virtud de reglas de derivación adaptadas a los preceptos
de la metalógica. Pero, aun así, el criterio de significación empírica seguía presentando
problemas. El principal de ellos estribaba en que los enunciados universales en general, y más
concretamente las leyes científicas, quedaban excluidos del edificio de la ciencia. Un enunciado
del tipo «todos los cisnes son blancos» no puede ser inferido necesariamente a partir de un
número finito de observaciones. Surge aquí el llamado problema de la inducción, ya señalado
por Hume, pero que en el siglo XX va a ser ampliamente discutido a partir de las
argumentaciones de Popper.
Aparte de otros problemas ligados a las peculiaridades de la tabla de valores de verdad del
condicional lógico, Hempel señaló una nueva dificultad: de acuerdo con el criterio empirista de
significado, una oración existencial (<<existe un cisne blanco») es plenamente verificable,
desde el punto de vista observacional, pero su negación no, por ser universal; ello plantea una
importante dificultad lógica, pues algunos enunciados serian admisibles mientras que su
negación no, siendo así que, desde tiempos de Aristóteles, está plenamente admitido que si un
enunciado pertenece a un determinado dominio científico, su negación también tiene sentido
en él, independientemente de que sea verdadera o no.
El debate que surgió en torno a estas cuestiones fue muy amplio, y no se trata aquí de
desarrollarlo. Hempel, por ejemplo, consideró que <<mientras nos esforcemos por establecer
un criterio de verificabilidad para las oraciones individuales de un lenguaje natural, en términos
de sus relaciones lógicas con las oraciones observacionales, el resultado será demasiado
restrictivo o demasiado amplio, o ambas cosas». Algunos autores, como Carnap, intentaron
resolver la cuestión tratando a fondo el problema de la inducción y, en particular, la lógica
probabilitaria. Otros prefirieron distinguir en la estructura de una teoría aspectos distintos de
los estrictamente lógicos, suscitando la cuestión de los términos teóricos, los términos
observacionales y las reglas de correspondencia. Pero sobre todo la crítica de Popper a la
verificabilidad como criterio de significación empírica tuvo un impacto enorme, haciendo que
estas posturas iniciales del Círculo de Viena fueran consideradas como un empirismo
excesivamente ingenuo.

Verificación

Las expresiones y fórmulas de la lógica y de las matemáticas no han de verificarse, por ser
analíticas. Pero el resto de los enunciados científicos ha de ser comprobable en la realidad, y a
poder ser por observación.
Wittgenstein estableció en el Tractatus una dependencia lógica entre los enunciados científicos
y las proposiciones elementales (cuyo equivalente en el Círculo de Viena son las protocolares):
<<La proposición es una función de verdad de la proposición elemental>>.
Pero este criterio se reveló excesivamente estricto: no es posible inferir los enunciados
generales a partir de los atómicos. Y desde el punto de vista de la metodología de la ciencia, las
leyes científicas, que son proposiciones cuantificadas universalmente, constituyen
componentes fundamentales en una teoría científica.
El Círculo de Viena osciló entre la verificación y la simple confirmación de dichos enunciados.
En su primera época, aún creía en la posibilidad de una verificación concluyente de los
enunciados científicos, a partir de las proposiciones elementales. Pero posteriormente fue
derivando hacia tesis menos estrictas, aun afirmando, como sucede con Schlick, que el último
paso de verificación ha de consistir en observaciones o en percepciones de los sentidos.
Los enunciados generales, las leyes científicas y, muy en particular las teorías, no pueden ser
verificadas directamente, confrontándolas con la empiria. Lo que sí puede hacerse es extraer
las
consecuencias lógicas concretas de una ley o de una teoría y comprobar que, efectivamente, la
experiencia ratifica dichos resultados. Este procedimiento de verificación, que en realidad
nunca
es total respecto de la ley o de la teoría, ya que siempre hay otras consecuencias que todavía
no han sido verificadas, reviste particular importancia en el caso de las predicciones. Para el
Círculo de Viena, y posteriormente para otros muchos filósofos de la ciencia, lo esencial del
saber científico es su capacidad de predecir exactamente fenómenos fisiconaturales. Al ser
verificada la corrección de una determinada predicción, las teorías y las leyes, si no verificadas,
quedan al menos confirmadas, aunque sea parcialmente. El astrónomo Leverrier, por ejemplo,
predijo la existencia de un octavo planeta en el sistema solar, Neptuno, como una consecuencia
que se derivaba lógicamente de la mecánica newtoniana. Años después, el 23 de septiembre
de 1846, otro astrónomo, J. G. Galle, comprobó por observación que, efectivamente, el planeta
predicho
existía. Y otro tanto sucedió ulteriormente con Plutón. Para el empirismo lógico, estos logros
son paradigmáticos de lo que debería ser la metodología científica. No puede decirse que la
teoría haya quedado totalmente verificada, pero sí tiene lugar una confirmación objetiva de
dicha teoría. Consecuentemente, una determinada ley universal, o teoría, ha de reducirse por
la vía de la inferencia lógica a sus consecuencias empíricas concretas y determinadas: una vez
llevada a cabo esta labor, propiamente deductiva (y común a las ciencias formales), tiene lugar
lo más propio de las ciencias empíricas: la confrontación de dichas predicciones con la
experiencia, que puede confirmar o no lo previsto. La verificabilidad experimental de sus
predicciones caracterizaría a la ciencia frente a otros tipos de saber humano.
Verificar, al decir de Kraft, es «comprobar la conformidad de un hecho predicho con uno
observado». Una teoría científica posee contenido empírico porque es capaz de predecir
hechos concretos y perceptibles; es aceptable en la medida en que sus predicciones hayan sido
confirmadas empíricamente.
Ahora bien, estudios ulteriores han mostrado que los procedimientos de verificación no son
metodológicamente tan inocuos como se supuso en el Círculo de Viena. Sucede con frecuencia,
por ejemplo, que los aparatos de observación y de medición presupongan por su propia
construcción algunas otras teorías científicas, e incluso la teoría misma que se trata de verificar,
con lo cual se incurriría en cierto círculo vicioso, desde el punto de vista metodológico, en los
procesos de verificación empírica. Los términos teóricos (por ejemplo, masa, electrón, etc.)
sólo son traducibles a términos directamente observacionales por medio de una serie de
artilugios científicos que genéricamente suelen denominarse reglas de correspondencia. Esta
cuestión, desborda el marco epistemológico del Círculo de Viena, supuso una fuerte objeción a
sus postulados observacionales como criterios de verificación empírica.
Aunque basándose en otras argumentaciones, ya en el propio Círculo de Viena surgieron
objeciones al criterio wittgensteiniano de verificación concluyente (por derivación lógica a
partir de proposiciones elementales) e incluso contra la propia noción de verificación. Neurath
y Hempel, por ejemplo, afirmaron que las proposiciones sólo pueden ser confrontadas con
otras proposiciones, y no con hechos: de ahí su insistencia en la delimitación de los enunciados
protocolares como base empírica de una determinada teoría.
La cuestión de la verificación y de la confirmación, por otra parte, está ligada a un tema
fundamental para la filosofía de la lógica: la teoría de la verdad. La concepción clásica de la
verdad, presente ya en Parménides, pero formulada de manera explícita por Aristóteles, la
conceptuaba como una adecuación entre el decir y el ser: decir las cosas como son era
sinónimo de discurso verdadero. El empirismo lógico renunció a la categoría de ser, así como a
la de cosa, por metafísicas, sustituyéndolas por la de hechos; pero desde el punto de vista de la
concepción de la verdad, siguió adherido al criterio clásico de la adequatio o correspondencia
entre proposiciones y hechos. Los enunciados científicos pueden ser verificados en la medida
en que se correspondan a los hechos observados o, si se prefiere, las observaciones empíricas
han de concordar con las predicciones realizadas por los científicos. El criterio de verificación
sufrió, por tanto, nuevos embates desde los defensores de otro tipo de teorías sobre la verdad
científica, como la teoría de la coherencia o la concepción pragmatista de la verdad. Todo lo
cual dio lugar a diversas modificaciones de dicha noción de verificación.
Una de las distinciones que, en etapas ulteriores, fue generalmente aceptada por los miembros
del Círculo es la que diferencia verificación y verificabilidad. Una proposición es verificable
cuando, al menos en principio, es posible llevar a cabo experimentos y observaciones empíricas
concordes con lo dicho en la proposición. En cada momento, no todas las proposiciones
empíricas han sido efectivamente verificadas, pero sí lo han sido algunas, y las demás son
verificables en principio. Esta corrección, muy importante, matizaba el criterio de cientificidad
inicial. Schlick habló de una comprobabilidad en principio, mientras que Carnap prefería el
término de verificabilidad en principio. Asimismo Ayer introdujo otro matiz, al distinguir entre
verificabilidad en sentido fuerte, cuando una proposición puede quedar establecida
concluyentemente por medio de la experiencia, y verificabilidad en sentido débil, cuando la
experiencia sólo permite determinar que esa proposición es probable en un grado lo
suficientemente elevado. Surge así un nuevo concepto de verificación, cuyos orígenes están en
Reichenbach y en el propio Carnap: el probabilístico, ligado a las investigaciones que se
llevaron a cabo en esta época sobre lógica inductiva y lógica probabilitaria.

Inducción y probabilidad

Tal y como ha mostrado Rivadulla, las tesis de Carnap fueron evolucionando, desde sus
posiciones verificacionistas iniciales hacia una afirmación de la confirmación progresiva, e
incluso de un grado de confirmación de los enunciados empíricos. En 1936 ya admitía la
confirmabilidad como criterio, y a partir de 1949 va a desarrollar su teoría del grado de
confirmación, que enlazará el empirismo inicial del Círculo de Viena con la lógica probabilitaria.
La confirmación de un enunciado, según Carnap, es estrictamente lógica: los datos
observacionales han de ser confrontados lógicamente con las consecuencias que se derivan de
una determinada ley o teoría. Si en un momento dado disponemos de una serie de datos, oi,
obtenidos por observación, y de una serie de hipótesis explicativas de esos datos, hi, hemos de
determinar la probabilidad de cada una de las hipótesis hi con respecto a las observaciones con
que se cuenta en un momento dado. La comparación entre las probabilidades respectivas, que
definen el grado de confirmación de cada hipótesis, nos permite elegir como hipótesis
confirmada aquella que, para unos determinados datos observados, posee mayor grado de
probabilidad. Considerar como admisible una hipótesis y como descartable otra, es una
decisión estrictamente lógica; pero en dependencia de una lógica probabilitaria, que no lleva a
elegir la hipótesis verificada o totalmente comprobada, sino aquella que, en relación con las
demás y con los datos observacionales, tiene un mayor grado de probabilidad.
Surge así el concepto de grado de confirmación de un enunciado científico, que conlleva la
previa cuantificación de la noción de confirmación: lo cual es posible apelando a la teoría de la
probabilidad. Una hipótesis posee una probabilidad inductiva, que va aumentando o
disminuyendo según las nuevas observaciones confirmen o no dicha hipótesis. El valor de una
hipótesis va ligado al mayor o menor número de datos empíricos conformes a dicha hipótesis.
Consiguientemente, el científico admite unas u otras hipótesis en función del aumento de su
grado de confirmación. Hay una lógica inductiva, de base netamente probabilista, subyacente a
las teorías empíricas. Lejos ya del criterio wittgensteiniano de la verificación concluyente, por
vía deductiva a partir de unas proposiciones elementales cuya verdad ha sido sólidamente
establecida por la vía de la observación, en los últimos desarrollos del Círculo de Viena se
acaba apelando a una lógica inductiva, que a su vez Carnap intentó axiomatizar en forma de
cálculo lógico. En la obra ya mencionada de Rivadulla pueden seguirse las sucesivas tentativas
de Carnap en este sentido.
En cualquier caso, el empirismo lógico acabó confluyendo en una afirmación de la inducción
como el método principal de las ciencias empíricas. La lógica inductiva permitiría fundamentar
el criterio de significación empírica, inicialmente basado en la verificabilidad observacional, y
finalmente en el grado probabilístico de confirmación de una determinada hipótesis.
Entretanto, y desde otras posturas, se hacían críticas de principio a las tesis del Círculo de Viena
y de sus epígonos. Así sucedió, en particular, con Popper, quien va a orientar la metodología
científica en un sentido muy distinto.

La concepción heredada

Introducción

A partir de la dispersión del Círculo de Viena, el programa del empirismo lógico siguió
desarrollándose, principalmente en los países anglosajones, donde fue la tradición dominante
hasta 1950. La Lógica de la investigación científica de Popper, que ya había sido publicada,
tardó en adquirir influencia, debido al predominio institucional del verificacionismo y del
inductivismo frente al falsacionismo y deductivismo popperianos. Cabe afirmar, por tanto, que
todos los avances habidos en filosofía de la ciencia hasta prácticamente el final de la década de
los cincuenta tuvieron lugar en la estela del positivismo lógico, convenientemente corregido y
mejorado por diversas influencias, como la de la filosofía analítica oxoniense o el pragmatismo
norteamericano. El análisis de las teorías por medio de la lógica fue matizándose y haciéndose
más complejo, tanto por la influencia de la filosofía del lenguaje como por el propio desarrollo
de la lógica, y en concreto de la metamatemática. Las aportaciones de Tarski contribuyeron a
dichas modificaciones del positivismo lógico. La crítica epistemológica, por su parte, obligó a
renunciar al empirismo ingenuo del Círculo de Viena.
Pero, en cualquier caso, durante más de veinte años los filósofos de la ciencia estuvieron
implícitamente de acuerdo en una serie de postulados básicos sobre las teorías científicas a los
que, a partir del momento en que los críticos de dichas presuposiciones comenzaron a llevar a
cabo sus ataques, Putnam englobó en 1962 bajo el apelativo de concepción heredada. Carnap,
Hempel y Nagel son nombres claves en el desarrollo de dicha concepción, pero también el
operacionalismo de Brigdman o el conductismo de Skinner, junto a una pléyade de científicos
que, tanto en las ciencias naturales como en las sociales, participaban de facto en dicha
epistemología. El mismo Popper, uno de los primeros críticos de la concepción heredada,
admitía algunas de sus tesis principales.
A partir de los años cincuenta comienza a producirse una serie de críticas concretas sobre
diversas afirmaciones de la concepción heredada: así las de Quine y Putnam sobre la distinción
analítico/sintético; las de Chisholm y Goodman en torno a los condicionales contrafácticos y a
la tesis de la extensionalidad de las leyes científicas; las de Rapoport, Kaplan y Achinstein en
relación con la axiomatización de las teorías científicas; las de Putnam y Achinstein
nuevamente, pero esta vez con respecto al problema clave de la oposición entre lo
observacional y lo teórico, o la de Patrick Suppes al analizar la noción de reglas de
correspondencia. Todas estas críticas y dificultades, junto a las que los propios defensores de la
concepción heredada, habían encontrado, como el dilema del teórico de Hempel, la solución
Ramsey a la cuestión de los términos teóricos; o los propios progresos de Carnap, en su
desarrollo de la lógica probabilitaria, dieron lugar a que en la década de los sesenta hubiera
una profunda crisis de confianza en las tesis de la concepción heredada, apareciendo incluso
las primeras alternativas a la misma debidas a Popper, Hanson, Putnam y Toulmin. Todo este
proceso de debilitamiento de sus postulados culminó con la publicación por Kuhn de La
estructura de las revoluciones científicas (1962), en la que se echaba por tierra la mayor parte
de las tesis de dicha concepción, fundamentalmente por ahistóricas y desligadas de la ciencia
real.
El debate cristalizó en un simposio celebrado en Urbana en 1969, cuya convocatoria refleja
bien las tesis centrales de la concepción heredada y también da cuenta de las profundas
críticas de que se les ha hecho objeto: «Tradicionalmente, los filósofos de la ciencia han
construido teorías científicas como cálculos axiomáticos, en las cuales a los términos y
enunciados teóricos se les da una interpretación parcial y observable por medio de reglas de
correspondencia. Recientemente, la pertinencia de este análisis ha sido discutida por un buen
número de filósofos, historiadores de la ciencia y científicos». El simposio debatió a fondo
dichas cuestiones, y con ello levantó el acta de defunción de la concepción heredada, que a
partir de ese momento quedó abandonada por casi todos los epistemólogos.

Contexto de descubrimiento y contexto de justificación

Una de las ideas más ampliamente aceptadas por todos los defensores de la concepción
heredada, implícita o explícitamente, es la propuesta por Reichenbach en 1938. No es lo
mismo cómo se llega a un resultado científico y cómo dicho resultado se expone y justifica
luego ante el público. En el caso de Kepler, mencionado expresamente por Reichenbach, la
analogía entre la Santísima Trinidad y el sistema solar le sirvió para desarrollar sus
investigaciones; pero la teoría final, empíricamente justificada, nada tenía que ver con
especulaciones teológicas. De ahí que, según Reichenbach, las cuestiones relativas al contexto
en que se verifican los descubrimientos científicos no son objeto de la epistemología ni de la
filosofía de la ciencia, sino de la psicología y de la historia. Lo único que interesa a la filosofía de
la ciencia es el resultado final, la manera en que son expuestas y justificadas las teorías cuando
ya constituyen un producto elaborado.
Durante muchos años esta distinción, así como la exclusión del contexto de descubrimiento de
la reflexión epistemológica, fue generalmente admitida por los filósofos de la ciencia. La
influencia de las investigaciones metamatemáticas de la escuela de Hilbert fue, en este sentido,
muy grande. No sólo había que partir de las teorías tal y como habían quedado finalmente
articuladas por sus descubridores o divulgadores, tomando como referencia principal, por
ejemplo, los libros de texto o las grandes obras de los científicos, sino que incluso había que
intentar un paso más, reduciéndolas a sistemas formales al modo de las teorías matemáticas:
la
aritmética y la teoría de conjuntos reducidas a la lógica por autores como Frege, Zermelo,
Fraenkel, Von Neumann, Russell, etc.; la geometría axiomatizada por Hilbert; el cálculo de
probabilidades por Kolmogorov; la teoría de números por Gentzen, etc. Como consecuencia de
esta concepción, los estudios de historia de la ciencia y las primeras tentativas de hacer una
historia social de la ciencia, o posteriormente una sociología de la ciencia (propuesta por
Merton ya en 1945), quedaban separados de la filosofía de la ciencia. Para la concepción
heredada, la elaboración de una epistemología general de la ciencia sólo podía hacerse a partir
de los resultados finales de la investigación científica, investigando su estructura sintáctica, así
como sus relaciones con la experiencia. El origen histórico de los conceptos, leyes y teorías
científicas, y el modo en que sus descubridores habían ido llegando a ellos, era cuestión de los
historiadores de la ciencia. Los epistemólogos habían de trabajar a continuación, partiendo de
esas construcciones científicas como algo ya elaborado y terminado, presto a confrontarse con
la experiencia.
En el seno mismo del positivismo surgieron algunas tendencias críticas al respecto, en buena
medida por influencia del segundo Wittgenstein, y concretamente de sus Philosophische
Untersuchungen, traducidas al inglés en 1953. La insistencia en el uso del lenguaje científico,
así como en la filosofía psicológica por parte de Wittgenstein, supuso un primer revulsivo en
contra de la distinción de Reichenbach, sobre todo para autores como Hanson y Toulmin.
Surgió así una tendencia a considerar a las teorías científicas como auténticas
Weltsanschauungen o concepciones del mundo, en la medida en que todo lenguaje lo es. La
tarea de la filosofía de la ciencia pasaría así a convertirse en el estudio de las especificidades de
las Weltsanschauungen científicas, en función de los sistemas lingüístico-conceptuales que las
caracterizan, incluyendo el uso de dichos sistemas, con sus aceptaciones y rechazos. Surgían así
las primeras tendencias a interrelacionar la filosofía de la ciencia con los estudios de historia y
sociología de la ciencia, que posteriormente culminarían en la obra de Kuhn.
Pero estas primeras tentativas apenas afectaron a la mayoría de los defensores de la
concepción heredada, que permanecieron fieles a la distinción estricta entre la fase del
descubrimiento y la fase de la justificación de lo descubierto, dentro de la investigación
científica. En la primera fase, en efecto, puede haber influencias metafísicas, religiosas,
políticas, etc., que impulsen la actividad del científico. Pero en el momento de la justificación
de sus teorías se impone la racionalidad más estricta y la dura confrontación de sus
predicciones y de las consecuencias de sus teorías con la experiencia. De ahí que el empirismo
antimetafísico de la concepción heredada se haya centrado exclusivamente en el análisis del
contexto de justificación de las teorías científicas.

Versión inicial de la concepción heredada

Ya Mach, complementado por algunas aportaciones de Poincaré, había expuesto las tesis
principales de la concepción heredada. Para él las teorías se ocupan de las regularidades de los
fenómenos, proponiendo términos teóricos para caracterizar -e incluso explicar- dichas
regularidades. Conforme a la matización de Poincaré, esos términos teóricos, al igual que los
axiomas de cada teoría, caso de haberse llegado a la axiomatización de la misma, son simples
convenciones utilizadas para referirse a los fenómenos; pero los términos teóricos han de ser
definidos explícitamente en lenguaje fenoménico y no son otra cosa que abreviaciones de tales
descripciones fenoménicas, tal y como lo subraya Suppe. Los términos teóricos, en las teorías
más desarrolladas, llegan a ser matemáticos, al igual que las leyes fundamentales de la teoría.
Pero todo este utillaje teórico siempre ha de ser traducible a lenguaje fenoménico por la vía de
las definiciones.
La primera versión de la concepción heredada aparece con la obra de Carnap en 1923, Der
Logische Aufbau der Welt. En dicha versión todas las proposiciones o teoremas de una teoría
científica, y en particular sus predicciones, han de ser expresables en lenguaje observacional
acerca de fenómenos. La experiencia sensorial propia es, para Carnap, el último criterio de
verdad de las descripciones fenoménicas que los científicos hayan llevado a cabo. El solipsismo
implícito fue corregido posteriormente por el fisicalismo en el Círculo de Viena, pero la
concepción heredada en sus desarrollos posteriores vino a establecer como nociones
fundamentales de su teoría de la ciencia la distinción entre lo teórico y lo observacional, así
como las reglas de correspondencia o definiciones operacionales como modo de conectar
ambas componentes de una teoría científica. Surge así la versión inicial estándar de la
concepción heredada. Esa versión inicial de la concepción heredada concebía las teorías
científicas como teorías axiomáticas formuladas en una lógica matemática.
Las teorías científicas, supuestas axiomatizadas, y teniendo en cuenta que en sus inferencias,
razonamientos, dilemas, ejemplificaciones, etc., hacen uso de cierto aparato lógico, muestran
en cualquier caso una primera estructura, cuyas componentes principales serían: una lógico-
matemática, que incluye las constantes y los funtores lógicos, pero también los números y el
aparato matemático utilizados (en el caso de la teoría de Newton el cálculo diferencial), otra
teórica, específica de la teoría, que incluye tanto los términos teóricos (masa, fuerza, etc.)
como las leyes de la teoría, las cuales se expresan por medio de dichos términos (leyes del
movimiento, ley de gravitación, etc.), otra observacional, en la que se incluyen los fenómenos
observables explicados por la teoría (movimiento de los astros, caída de los graves, etc.), y una
de intercorrespondencia de la componente teórica y la observacional, que permite definir con
criterio observacional los términos teóricos así como, recíprocamente, interpretar conforme a
las leyes de la teoría los fenómenos (aparatos de medida y de observación, significado de los
términos, etc.). La concepción heredada pretendía así tener una caracterización general de las
teorías científicas más desarrolladas, como la mecánica, la termodinámica, el
electromagnetismo, etc. Precisaba el requisito fisicalista, y de alguna manera también la
tendencia a la unificación de la ciencia por reducción de todas las teorías científicas a lenguaje
fisicalista. Sin embargo, esta versión inicial de la concepción heredada pronto iba a encontrarse
con diversas dificultades.

La axiomatización de teorías

La axiomatización de las teorías científicas tiene su primer paradigma en los Elementos de


Euclides, con sus definiciones, nociones comunes y axiomas como punto de partida para la
demostración de los teoremas propios de la geometría de aquella época. Pero en el siglo XIX, a
partir del descubrimiento de las geometrías no euclídeas, la autoevidencia de los axiomas, que
siempre había sido una convicción ligada al axiomatismo more geometrico, va a desaparecer
por completo, suscitando profundos cambios en la propia concepción del método axiomático.
Obras como la de Hertz en mecánica o la de Hilbert en geometría, pasaron a ser los nuevos
modelos de teorías axiomatizadas. En cuanto a los epistemólogos, acaso las posturas más
claras a la hora de expresar ese cambio de concepción del método axiomático sea Poincaré,
cuando en su Ciencia e hipótesis afirma: <<Los axiomas geométricos no son, pues, ni juicios
sintéticos a priori ni hechos experimentales. Son convenciones: nuestra elección entre todas las
convenciones posibles está guiada por los hechos experimentales, pero permanece libre, y sólo
está guiada por la necesidad de evitar toda contradicción. En otros términos, los axiomas de la
geometría no son sino definiciones disfrazadas.
El axiomatismo moderno no sólo no acepta la evidencia de los axiomas de las teorías, sino
tampoco la intuitividad de los términos básicos de las mismas: para Hilbert los términos
'punto', 'recta', 'plano', etc., no tienen significado por sí mismos. Son conceptos indefinidos,
que sólo cuando se combinan por medio de unos u otros axiomas comienzan a quedar
implícitamente definidos. Establecidas unas reglas de inferencia lógica, a partir de los axiomas
puede deducirse una serie de teoremas, pero hasta este momento nada tiene significado; el
cálculo es pura sintaxis. Únicamente cuando, una vez derivadas las expresiones bien formadas
que pueden inferirse de los axiomas y de los términos primitivos (no definidos), comenzamos a
buscar interpretaciones de dicho cálculo formal, los términos comienzan a adquirir significado
y los axiomas pasan a ser verdaderos o falsos. Cada sistema axiomático puede poseer varios
modelos o interpretaciones empíricas diferentes. La semántica de una teoría axiomatizada nos
permite hablar de verdad o falsedad.
Si esta concepción del axiomatismo, que procede de las matemáticas y de la lógica, se aplica a
las ciencias empíricas, estamos en plena concepción heredada. Lo primero que hay que indagar
en una teoría con contenido empírico es su estructura sintáctica, que consta de los siguientes
elementos:

1) Los términos primitivos de la teoría, no definidos.


2) La estructura lógica que se va a utilizar para formar y derivar proposiciones.
3) Los axiomas que se han elegido para derivar a partir de ellos todos los teoremas de la
teoría. Para una misma teoría puede haber varios sistemas de axiomas, lo cual plantea la
cuestión de cuáles son los preferibles.

Las reglas de correspondencia van a permitirnos traducir todo el vocabulario teórico Vt, así
como los postulados T y sus consecuencias, a lenguaje observacional. La semántica de la teoría
siempre es en último término, dependiente de la observación, y por tanto también de las
reglas concretas de correspondencia que se utilicen.
Pero antes de llegar al problema de la traducción de Vt a lenguaje fenoménico aparece ya una
primera cuestión: eran muy pocas las teorías físicas, y por supuesto muchas menos las
químicas, biológicas o de las ciencias sociales y humanas, que estaban axiomatizadas conforme
a los preceptos de la escuela formalista de Hilbert en matemáticas. Al tratar de considerar la
filosofía de las ciencias empíricas como algo similar a la metamatemática, desde el punto de
vista del análisis sintáctico de las teorías, surgieron numerosos problemas, tanto desde la
perspectiva lógica como en lo que respecta al proyecto mismo. Se produjeron disensiones
entre los propios defensores de dicha concepción: Hempel, por ejemplo, criticó las virtudes de
la axiomatización para las teorías empíricas, al menos en sus últimos escritos, pues al principio
también el había aceptado la concepción estándar de las teorías como cálculos axiomáticos. En
su debate con Suppes en 1969, Hempel admite que dicha concepción estándar puede valer
para las matemáticas, pero pone en duda su utilidad, incluso a título exclusivamente
metodológico, para las teorías físicas. Se opone en particular a la noción de cálculos no
interpretados.
Pero los problemas con respecto a la axiomatización de las teorías con contenido empírico
habían surgido mucho antes, en pleno auge de la concepción heredada. Veamos únicamente
dos de ellos.
El primero lo presentó la mecánica cuántica. Toda tentativa de axiomatización de la misma
sobrepasaba la estructura lógica inicialmente admitida: una lógica de enunciados de primer
orden con identidad. Y asimismo la solución propuesta por Ramsey al problema de los
términos teóricos desbordaba ese marco lógico. Motivo por el cual había que modificar la
exigencia de la versión inicial, por demasiado restrictiva.
El segundo surgió ligado a los condicionales contrafácticos. Los cálculos lógicos de primer orden
y con identidad, son extensionales; es decir, que en ellos se cumple el principio leibniciano de
sustitución salva veritate. O dicho intuitivamente: en ese tipo de lógicas sólo puede recogerse
el modo indicativo, de entre los distintos tipos de modos que usan los científicos en sus
razonamientos. Ahora bien, no quedaba nada claro que las leyes científicas fuesen
exclusivamente extensionales, precisamente porque utilizan con frecuencia los Condicionales
contrafácticos. Veámoslo en un ejemplo, estudiado por Suppe.

El condicional contrafáctico

Si se cayera este cristal frágil, se rompería

interpretado conforme al condicional material, propio de las lógicas de primer orden, sería
verdadero de todo cristal frágil que no se cayera. Como también sería verdadero, lógicamente
hablando, este otro condicional contrafáctico

Si este cristal frágil se cayera, no se rompería

de todo cristal frágil que no se cayese. Pero físicamente este segundo condicional es falso.
Chisholm y Goodman, entre otros, estudiaron esta cuestión, relacionando el último el
problema de los contrafácticos explícitamente con las leyes científicas. Para Goodman, todo
condicional del tipo anterior depende de una serie de condiciones relevantes, que se dan por
supuestas implícitamente: que estemos en el campo gravitacional de la Tierra, que el cristal no
caiga por un plano inclinado, que la superficie de choque sea más dura que el cristal, etc. Pero
ni aun añadiendo explícitamente dichas condiciones al contrafáctico puede inferirse
físicamente la rotura del cristal: siempre hay que suponer, además, alguna ley científica que, al
cabo, es la clave del fenómeno que se pretende inferir. Si sólo añadimos condiciones
relevantes, nos veremos llevados a analizar lo que sucedería si alguna de dichas condiciones no
se diese; es decir, a nuevos condicionales contrafácticos con lo cual se produciría un círculo
vicioso. Y, a su vez, si hacemos depender la verdad de un condicional contrafáctico de las leyes
científicas, éstas habrían de estar previamente confirmadas, lo cual planteaba a su vez
problemas con los solos recursos de la lógica de primer orden, ya que los propios contrafácticos
forman parte de dicha confirmación.
De ahí que la conclusión final de Chisholm y Goodman apuntase a subrayar el carácter no
extensional de los condicionales contrafácticos, proponiendo la introducción de lógicas
modales (es decir, con operadores modales del tipo 'es posible que', 'es necesario que', etc.)
para el adecuado tratamiento de dichos condicionales. Ello desbordaba el marco de los
cálculos de primer orden con identidad, constituyendo un motivo más para la sustitución de la
versión inicial de la concepción heredada.

La distinción teórico/observacional

Otro de los presupuestos fundamentales de la concepción heredada de las teorías científicas


estriba en la división de su vocabulario básico, y por consiguiente también de sus
proposiciones, en dos clases: términos teóricos y términos observacionales. El problema surge
ya con términos como 'frágil', dado que se está en contra de toda concepción esencialista, y
por lo tanto hay que proponer algún enunciado observacional para que dicho término tenga
significado en una teoría física, pero se vuelve mucho más acuciante cuando consideramos
términos como 'masa', 'electrón', etc. De ahí que uno de los problemas básicos de la
concepción heredada fuese la eliminación de los términos teóricos, para lo cual se hicieron
diversas propuestas y tentativas. Hay dos tipos de interpretación de los términos de Vt: una
realista y otra instrumentalista; y ambas son compatibles con la concepción heredada.
Puede pensarse que términos como 'electrón', 'campo', etc., así como sus derivados -'salto del
electrón de una órbita a otra', 'modificación de la trayectoria de un rayo de luz por influencia
de
un campo gravitacional', etc.-, corresponden a otras tantas propiedades de objetos no
observables, como el electrón o el campo, pero que existen realmente. Esta es la
interpretación realista de los términos teóricos, en la que, de alguna manera, se reproduce el
debate clásico sobre los universales (generas, especies) y su existencia real, siendo así que lo
que observamos siempre son individuos. Incluso en la concepción fenoménica heredada de
Mach y de la Aufbau de Carnap, la postura realista sigue siendo válida, restringiéndose
simplemente el ámbito referencial de las teorías a los fenómenos, y no a cosas u objetos; pero
dichos fenómenos son reales y, por lo tanto, los términos teóricos aluden a entidades
realmente actuantes en los fenómenos.
Asimismo puede pensarse que los términos teóricos son simples instrumentos útiles para hacer
predicciones sobre el ámbito fenoménico, más sin afirmar por ello que dichos términos
teóricos
tengan referentes reales. Lo importante de una teoría sería salvar las apariencias, explicar lo
que observemos por medio de construcciones teóricas bien elaboradas, cuya eficacia se
muestra precisamente al predecir nuevos fenómenos y al explicar los ya conocidos; pero sin
que ello nos lleve más allá, a afirmar que con dichos conceptos hemos descubierto la realidad
del ámbito estudiado, máxime cuando se sabe que el progreso científico posiblemente acabará
suprimiendo dichos conceptos y reemplazándolos por otros términos teóricos, que a su vez
serán más o menos útiles para predecir y explicar. Esta es, genéricamente hablando, la posición
instrumentalista. En mecánica cuántica, por ejemplo, a menudo se han mantenido este tipo de
tesis en la escuela de Copenhague.
Pero, ya en 1931, había objetado Ramsey a la concepción instrumentalista que si todo el papel
de los términos teóricos estriba en predecir nuevos hechos observables, ¿por qué incluirlos en
la estructura de las teorías científicas, en lugar de hablar exclusivamente en términos
observacionales, de Vo? Observación similar a la de Schlick en 1938.
A partir de este debate interno, Hempel formuló el llamado dilema del teórico, que a su vez ha
dado lugar a múltiples debates entre los defensores de la concepción heredada. Lo enuncia así:
<<Si los términos y principios de una teoría sirven para su propósito son innecesarios, como se
acaba de señalar, y si no sirven para su propósito sin duda resultan innecesarios. Pero dada una
teoría cualquiera, sus términos y principios o sirven para su propósito o no. Luego los términos
y principios de cualquier teoría son innecesarios>>.
Mencionaremos únicamente la tentativa de Ramsey, de zanjar este tipo de discusiones
eliminando los términos teóricos de cualquier teoría con un número finito de axiomas. La
solución de Ramsey al problema de la eliminabilidad de los términos teóricos ha sido retomada
posteriormente por Sneed y por la concepción estructural.
En el marco de la concepción heredada, la problemática de la distinción teórico/observacional
siempre estuvo centrada en los términos teóricos, y mucho menos en el lenguaje observacional
propio de las teorías. De ahí que las críticas de Hanson, según el cual <<toda observación está
cargada de teoría>> tuviera particular repercusión sobre uno de los postulados centrales de la
concepción heredada.

Las reglas de correspondencia

Toda teoría axiomatizada parte de unos términos primitivos, indefinibles, que sólo se
determinan mutuamente por los axiomas que se adopten en dicha teoría. Sin embargo, para el
desarrollo de las demostraciones hay que introducir luego una serie de términos definidos en
función de los primeros. Requisito esencial del método axiomático ha sido siempre que todo
concepto de la teoría sea definido explícitamente en función de los términos primitivos.
En el caso de las teorías con contenido empírico, este requisito sólo era necesario para los
términos teóricos, pues se presuponía que los observacionales no presentaban problemas. Por
eso, en un principio, el positivismo lógico exigía definiciones explícitas de todos y cada uno de
los términos teóricos, sin excepción. Todo enunciado de una teoría debía de ser traducible a
términos observacionales, incluidas las leyes fundamentales o axiomas. El criterio empirista de
significado, por otra parte, manteniéndose en la tradición según la cual sólo hay significado
donde hay proposiciones, comportaba la consecuencia de que todos los términos habían de
ser reducibles a observaciones, al menos en principio.
Para solucionar esta cuestión se afirmó la necesidad de que en toda teoría científica se
estableciese una serie de reglas de correspondencia que permitieran traducir el vocabulario
teórico Vt a términos observacionales. Dichas reglas fueron concebidas en un principio como
definiciones explícitas, siguiendo el modelo del axiomatismo de Hilbert. De acuerdo con dicha
exigencia, a cada concepto teórico debería corresponderle biunívocamente un término
observacional. Sin embargo, este ideal se reveló pronto irrealizable, aparte de conllevar
problemas múltiples que obligaron a buscar otro tipo de soluciones. Carnap señaló que los
términos disposicionales, como 'frágil', no eran definibles explícitamente mediante términos
observacionales. Probemos, por ejemplo, con una definición como ésta: <<Un objeto X es frágil
si y sólo si satisface la condición siguiente: dado un instante t, si X recibe un golpe seco en t,
entonces X se romperá en t>>. Si procediéramos así, tendríamos que expresar a continuación
esta definición en términos de una lógica de primer orden, conforme al esquema del requisito
V: Fx <-> (t) (Sxt -> Bxt), lo cual podría leerse en palabras: X es frágil (Fx) si y sólo si en todo
instante t, el que x reciba en ese instante un golpe seco (Sxt) conlleva el hecho de que en el
mismo instante x se rompa (Bxt).
Ahora bien, este enunciado, conforme a la definición del condicional de la lógica de primer
orden, será verdadero también de cualquier objeto que nunca sea golpeado, dado que el
condicional siempre resulta válido cuando el antecedente es falso. Con lo cual no hemos
logrado definir adecuadamente el término teórico 'frágil' que, sin embargo, sí tiene un uso
efectivo en las teorías físicas correspondientes.
De ahí que se optase poco después por las definiciones operacionales que había propuesto
Brigdman, inspirándose en las concepciones de Mach, y más en concreto en las críticas que
este autor hizo a la definición de masa dada por Newton: <<La cantidad de materia es la
medida de ésta mediante su densidad y su volumen, conjuntamente. Dicha cantidad es lo que
entenderé mediante el término masa o cuerpo en la explicación que sigue>>.
Para Mach esta definición es una pseudodefinición: <<El concepto de masa no resulta más
claro al describir la masa como el producto del volumen por la densidad, ya que la densidad
misma denota simplemente la masa por unidad de volumen>>. Por este motivo propuso otra
definición muy diferente, basada en la tercera de las leyes newtonianas del movimiento, o
principio de acción y reacción: <<La razón de las masas de dos cuerpos es la razón inversa
negativa de las aceleraciones mutuamente inducidas por dichos cuerpos>>. Esto permitía
medir la masa experimentalmente, y no sólo en función de la interacción de dos cuerpos en el
campo gravitacional, sino también en función de las atracciones y repulsiones de dichos
cuerpos al interactuar eléctrica o magnéticamente. La definición machiana del concepto
teórico 'masa' constituyó una especie de paradigma para el operacionalismo de Brigdman, al
proponerse una definición que proporcionaba a la vez un método concreto y preciso para
medir el concepto recién definido. De ahí que Brigdman, al tratar de introducir el concepto de
longitud, insistió en definirlo basándose en operaciones físicas: <<Para encontrar la longitud de
un objeto tenemos que realizar alguna operación física. Ahora bien, el concepto de longitud
queda fijado cuando las operaciones por medio de las cuales se mide la longitud están fijadas,
esto es, que el concepto de longitud es, ni más ni menos, el conjunto de operaciones mediante
las cuales se determina la longitud. Y, en general, por un concepto cualquiera no significaremos
más que un conjunto de operaciones. El concepto es sinónimo del correspondiente conjunto de
operaciones>>.
Pero las definiciones operacionales presentan muchos problemas teóricos. Popper, en su
Conjeturas y refutaciones, lo mostró claramente: <<Contra esta concepción (operacionalista),
cabe mostrar que las medidas presuponen teorías. No hay medida alguna sin teoría previa, y
tampoco hay operación que pueda ser descrita satisfactoriamente en términos no teóricos. Las
tentativas de hacerlo son circulares; por ejemplo, la descripción de la medida de una longitud
necesita una teoría (rudimentaria) del calor y de la medida de una temperatura; pero éstas a su
vez incluyen medidas de longitudes>>.
En efecto, Brigdman entendía la longitud en función de una serie de operaciones físicas, entre
las cuales se incluía llevar una barra rígida de metal una y otra vez hasta medir el intervalo del
que se tratase, pero un presupuesto indispensable de dicha operación, entre otros muchos, es
que la barra no se dilate, lo cual comporta la necesidad de describir la operación para una
temperatura constante de la barra, y por tanto requiere la previa definición de temperatura,
que, a su vez, requiere la de longitud, como subraya Popper.
Pero los problemas iniciales del operacionalismo no fueron estos. A Brigdman se le criticó
sobre todo que si, como sucede con muchas magnitudes y conceptos teóricos, un término es
ampliado
por la propia evolución de la ciencia, es preciso introducir una nueva operación para definirlo,
con lo cual el concepto se modifica. Por ejemplo, a partir de cierta distancia ya no se utilizan
barras rígidas para medir longitudes, sino, por ejemplo, teodolitos. Y no cabe duda de que, por
una parte, los teodolitos presuponen otro tipo de teorías (como la óptica, que desde luego
presupone a su vez la definición de longitud), ni de que por otra las operaciones físicas que se
llevan a cabo con un teodolito para medir una distancia son muy diferentes de las que se
ejecutan con una barra rígida. Al operacionalismo siempre le quedaría por justificar que se
trata del mismo concepto teórico, lo cual no resulta nada fácil. A esta objeción,
paradójicamente, Brigdman contestó diciendo que es la ciencia la que está en un error y que,
efectivamente, hay distintos conceptos según los diversos instrumentos de medida, afirmación
ésta que ni siquiera los más recalcitrantes defensores del empirismo y de la concepción
heredada podían aceptar. Y sin embargo, pese a sus graves insuficiencias metodológicas, el
operacionalismo ha seguido teniendo, y todavía conserva, un notable predicamento en
determinadas ciencias, como el conductismo skinneriano o diversas tendencias taxonomistas, y
en general en las ciencias sociales. Entre los metodólogos y epistemólogos quedó rápidamente
abandonado.
Carnap propuso una nueva solución al problema de las reglas de correspondencia, exigiendo
que fuesen enunciados de reducción que caracterizasen parcialmente los términos teóricos.
Pero también en este caso cabe más de un enunciado que reduzca los términos teóricos a
observacionales para cada término teórico. Por ejemplo: un objeto también se revela frágil al
hacerlo girar bruscamente, o al someterlo a sonidos de alta frecuencia. Hay varias reglas de
correspondencia para cada término teórico, cada una de las cuales sólo lo define parcialmente,
según Carnap. De ahí que el requisito V se propusiera también a modificación, con arreglo a
este nuevo criterio; pero tampoco aquí desaparecían las críticas, tal y como señaló Hempel en
1952, en relación con términos teóricos como 'masa', 'momento', 'cuerpo rígido', 'fuerza',
'temperatura absoluta', 'presión', 'volumen', 'electrón', 'protón' y otros: <<Los términos de este
tipo no se introducen mediante cadenas de definición o reducción basadas en observables; de
hecho, no se introducen mediante ningún proceso analítico consistente en asignarles
significado
individual. Más bien las construcciones usadas en una teoría se introducen a la vez
estableciendo un sistema teórico formulado en sus propios términos y dando a este sistema
una interpretación experimental, que a su vez confiere un significado empírico a dichas
construcciones teóricas>>. Surge así la concepción de las teorías científicas como un todo, que
tanto predicamento iba a tener en los años posteriores; pero en el marco de la concepción
heredada, sucede todavía en relación con la idea originaria de las teorías como cálculos lógicos
que, una vez construidos, encuentran interpretaciones empíricas globalmente, y no concepto a
concepto. Las reglas de correspondencia pasaron a ser un sistema interpretativo, y no ya un
conjunto disgregado de enunciados de reducción de lo teórico a lo observable para cada uno
de los términos teóricos básicos de dicha teoría.
Las dificultades habidas con el concepto básico de reglas de correspondencia, así como las
anteriormente reseñadas en torno a la axiomatización, a la lógica L de una teoría, a los
términos
teóricos e incluso a la versión estrictamente fisicalista de las teorías, que pasó a ser sustituida
por una versión semántica más general por influencia de las investigaciones de Tarski, dieron
lugar a que en la década de los cincuenta la versión inicial fuese reemplazada por lo que
Frederick Suppe llama la versión final de la concepción heredada.
La caracterización final de la concepción heredada, las múltiples presuposiciones ontológicas
que se hacen en ella, y sobre todo por el carácter ad hoc de muchas de las soluciones finales,
que sólo aparecen para evitar determinados problemas técnico, que la concepción heredada ya
estaba en plena crisis en la década de los cincuenta. Es el momento en que, aparte de las
críticas más o menos concretas, van a surgir opositores mucho más frontales, en particular los
que van a atacar la única componente de la versión inicial, y del propio positivismo lógico, que
aún queda incólume: lo observacional. Pero antes, la concepción heredada va a producir
aportaciones que tendrán interés para el desarrollo ulterior de la filosofía de la ciencia en el
siglo XX.

Modelos de una teoría científica

En filosofía de la ciencia el término ‘modelo’ se usa (o debería usarse) en un sentido técnico,


derivado de las investigaciones llevadas a cabo por Tarski sobre la semántica de los sistemas
formales, y posteriormente según lo que se ha venido llamando en lógica teoría de modelos.
Aun restringiendo así el significado del término 'modelo' a las teorías científicas, cabe distinguir
hasta cinco sentidos diferentes en el uso de dicho concepto en relación a las teorías.

1) Modelos lógicos. Son las interpretaciones semánticas de un sistema de axiomas (por


ejemplo, del cálculo de una teoría) tales que los axiomas son verdaderos para dichas
interpretaciones. Los modelos no tienen por qué ser entidades lingüísticas, pero si han de ser
isomorfos en su estructura lógica a la de la teoría.
2) Modelos matemáticos. Son representaciones aritméticas de una teoría empírica; es decir, un
conjunto de proposiciones matemáticas que tienen la misma forma que las leyes de la teoría.
También hay isomorfismo estructural.
3) Modelos analógicos. Son representaciones físicas tridimensionales de un objeto o de un
sistema, como por ejemplo un planetario, o los modelos mecánicos del éter de Kelvin, o en
general los gráficos. También hay isomorfismo.
4) Modelos teóricos. Conjunto de asunciones sobre un objeto que permiten atribuirle una
estructura interna, como por ejemplo el modelo atómico de Bohr, o el modelo de la mesa de
billar para la teoría cinética de los gases. Suelen identificarse con la teoría, recibiendo una
interpretación realista.
5) Modelos imaginarios. Conjunto de asunciones sobre un objeto que muestran lo que debería
de ser si satisficiese determinadas condiciones que, de hecho, no satisface. Ejemplos: el
modelo de Poincaré para una geometría de Lobachevski, o el modelo de campo magnético
propuesto por Maxwell. Estudian los objetos y los sistemas como si fuesen así, y poseen en
cualquier caso una importante función heurística.

En el caso de la concepción heredada, la utilización de los modelos de una teoría surge con la
versión final de la misma, y en concreto con la propuesta de Carnap en 1956 de las
interpretaciones parciales de los términos teóricos: <<No mantenemos que quepa una
interpretación completa de Lt, sino solo una interpretación indirecta y parcial que dan las reglas
de correspondencia>>.
Aunque Carnap no llegó a definir con exactitud la noción de 'interpretación parcial', lo cierto es
que comenzó a utilizarse de inmediato, dando lugar a las críticas de Achinstein y de Putnam.
Este último fue quien propuso la siguiente interpretación de la tesis carnapiana: interpretar
parcialmente términos V, y enunciados de L es especificar una clase no vacía de modelos
propuestos con más de un miembro.
Esta idea ha tenido gran éxito en los años ulteriores, pero ha suscitado asimismo una viva
discusión en torno a la noción de modelo de una teoría con contenido empírico, y en particular
a si dichos modelos pertenecen o no a la estructura de la teoría. Las investigaciones de Sneed
surgen, de alguna manera en este contexto.
Hempel, Nagel, Freudenthal, Braithwaite, Hesse y otros muchos debatieron esta cuestión en la
década de los sesenta. Nagel, por ejemplo, caracterizaba así a la concepción heredada en su
tratado de 1961, La estructura de la ciencia:

Convendrá distinguir tres componentes en una teoría:

1) Un cálculo abstracto que es el esqueleto lógico del sistema explicativo y que «define
implícitamente las nociones básicas del sistema.
2) Un conjunto de reglas (de correspondencia) que asignan de modo efectivo un contenido
empírico al cálculo abstracto, poniéndolo en relación con los materiales concretos de la
observación y la experimentación.
3) Una interpretación o modelo del cálculo abstracto que provea a la estructura esquelética de
carne, por así decirlo, en términos de materiales conceptuales o visualizables más o menos
familiares.

Como bien ha señalado Suppe, Nagel no está pensando exclusivamente en modelos


matemáticos de una teoría, o lógicos, que satisfacen los axiomas de la misma en el sentido de
Tarski, sino en modelos icónicos, como el de Bohr, a los cuales llamábamos antes modelos
teóricos. Tanto para Nagel como para Hesse, aunque esta última amplía el concepto de
modelo, no restringiéndolo a materiales visualizables y familiares, toda teoría científica debe
tener ese tipo de modelos, los cuales son componentes esenciales e integrantes de las teorías.
El propio Kuhn utilizará algunas veces la noción de paradigma en el mismo sentido.
Mas la versión estándar de la concepción heredada es más estricta: para Braithwaite los
modelos de una teoría han de ser conjuntos de proposiciones con la misma estructura de la
teoría: <<Un modelo de una teoría T es otra teoría M que se corresponde con T en cuanto a la
estructura deductiva [...] el modelo es otra interpretación del cálculo de la teoría>>.
Quien más ha criticado la versión del concepto carnapiano de interpretación parcial en
términos de clases de modelos ha sido el mismo autor que propuso esa versión como posible:
Putnam. Para él, dicha interpretación consiste en la especificación de una clase de modelos
propuestos para la teoría T. Y una especificación así, según Putnam, debe utilizar términos de
gran envergadura, tales como 'magnitud física', que todavía no han sido definidos dentro de la
teoría T, de tal manera que la clase de modelos M propuestos para T sería muy amplia, y de
muchos de sus elementos no podríamos saber si son interpretaciones que satisfacen la teoría T
o no. De lo cual concluye que la clase de los modelos propuestos no está bien definida, y por
tanto es inaceptable. En el fondo, lo que Putnam quiere atacar en la concepción heredada es la
propia distinción entre teórico y observacional. Pero al hacerlo, ha sugerido una noción que
será retomada por la concepción estructural, si bien en un sentido diferente.
Frederick Suppe ha respondido a Putnam defendiendo la versión de la interpretación parcial
como clase de modelos, si bien él también se muestra en desacuerdo con la concepción
heredada. Al hacerlo, a su vez ha propuesto una nueva idea que tendrá gran desarrollo en las
investigaciones de Sneed, motivo por el cual conviene aludir a ella: <<Putnam dice que, según
la versión de la interpretación parcial como clase de modelos, las teorías cuyas consecuencias
observacionales son falsas no tienen ningún modelo en M; esto es inaceptable, ya que una
teoría semejante sería falsa, pero no será un sinsentido. Sin embargo, esta objeción confunde
la verdad empírica con la verdad semántica. La clase M de modelos de T define, en efecto, un
conjunto de mundos que resultan compatibles con la supuesta verdad semántica de T. Todas
las consecuencias Lo de T son semánticamente verdaderas en cada uno de tales mundos. De ahí
que la definición de M sea tal que no sea nunca vacía, a no ser que T sea lógicamente
contradictoria. Si T es empíricamente verdadera o falsa se reduce a la cuestión de si describe
fielmente condiciones que se dan en el mundo; pero esto no equivale sino a la cuestión de si el
mundo real (o una parte de él) está o no está en M. De donde se deduce que si se mantiene la
distinción entre verdad semántica y empírica, como se debe, la objeción de Putnam
desaparece>>.
Para resumir el debate suscitado en la década de los sesenta en torno a la cuestión de los
modelos de una teoría científica, cabe afirmar que los defensores de este tipo de
interpretación parcial de las teorías veían en ella las siguientes ventajas:

1) Los modelos desempeñan un papel muy importante en la construcción de las teorías, al


servir como guías en la búsqueda de su estructura formal.
2) Los modelos interpretan completamente los términos teóricos de la teoría.
3) Al atribuir significado a los términos teóricos, los modelos conectan la teoría con los datos
experimentales. Por lo tanto, son una versión mejorada de las reglas de correspondencia
clásicas, que ya no presentan las dificultades lógicas de éstas, al optar decididamente por una
función semántica de dichos modelos.
4) Los modelos extienden las teorías a nuevos ámbitos observacionales, y por tanto
desempeñan una función heurística importante, que posibilita el crecimiento y desarrollo de
una teoría.

Las críticas internas a la versión final carnapiana de la concepción heredada suscitaban así
nuevos problemas, que pocos años después serían retomados por otros filósofos de la ciencia,
pero desde puntos de vista totalmente distintos a la tradición neopositivista. La década de los
sesenta es pues una fase de crisis para la concepción heredada, que va a dar lugar, por una
parte, a que algunos autores formados en ella se desliguen de la misma, como asimismo a la
difusión de ideas contrarias a ella, como las del propio Popper, que habían estado como
congeladas en sus aspectos fundamentales durante muchos años. Pero el abandono
generalizado de la misma sólo tendrá lugar a partir del embate del historicismo kuhniano, que
parte ya de posiciones totalmente heterogéneas a las de la tradición neopositivista.
Entretanto, sin embargo, los defensores de la concepción heredada lograron todavía plantear
nuevos problemas, que han pasado a ser esenciales en los años posteriores, aunque para ser
tratados con criterios muy diferentes a los de Carnap, Hempel y otros.

Reducción y explicación científica

La reducción de unas ciencias a otras era el lema fundamental del Círculo de Viena en su
proyecto de elaboración de una ciencia unificada. Del mismo modo Frege, Russell y la escuela
formalista de Hilbert habrían reducido las matemáticas a la lógica, haciendo surgir la teoría de
los sistemas formales, y su metateoría o metamatemática, las ciencias empíricas debían ser
reducidas a lenguaje fisicalista, e incluso algunas ciencias a otras, como las ciencias sociales a la
psicología (entendida ésta al modo conductivista) y ésta a su vez al fisicalismo. La impronta del
positivismo de Comte, aunque muy lejana, seguía dejándose notar.
El progreso científico está ligado, según el neopositivismo, a los procesos de reducción de
teorías, entre los cuales hay dos perfectamente válidos, puesto que lo suscitan: según el
primero una teoría altamente corroborada tiende a ampliar su campo originario, reduciendo a
sus términos y a su marco teórico ámbitos fenoménicos que hasta entonces habían sido
investigados con técnicas muy diferentes; el ejemplo clásico es el de la extensión de la
mecánica clásica de partículas a la mecánica de cuerpos rígidos, pero también puede valer la
extensión de los métodos físicos a la psicología (psicofísica de finales del siglo XIX) o la de los
métodos estadísticos a las ciencias humanas y sociales (psicometría y sociometría del siglo XX).
El segundo procedimiento fundamental para la reducción de unas teorías científicas a otras
tiene lugar cuando varias teorías altamente corroboradas, cada una en su dominio, siendo
éstos en principio muy diversos, se incluyen en o se reducen a otra teoría más amplia. Así
ocurrió con la mecánica newtoniana, que en su desarrollo absorbió varias teorías precedentes,
como las de Copérnico y Kepler en astronomía y la de Galileo sobre la caída de los graves.
Ahora bien, ¿cómo encajar estos procesos de cambio científico con la estructura de las teorías,
tal y como ésta había quedado definida en la concepción heredada, sea en su versión inicial o
en su versión final?
El primer tratamiento del problema lo proporcionaron en 1956 Kemeny y Oppenheim: según
ellos, una teoría T1 reduce la teoría T2 cuando T1 contiene los mismos datos observacionales
que T2, y los presenta en forma más sencilla. El programa fisicalista se mantenía, pues, en todo
su rigor, dando por supuesto que en una teoría todo es traducible a términos observacionales,
por medio de las reglas de correspondencia.
En 1961 Nagel propuso otra definición de la reducción entre teorías, que pasó a ser la tesis
estándar de la concepción heredada al respecto. Para Nagel, una teoría es reducible por otra si
puede ser lógicamente derivable de ella, lo cual sólo puede suceder, por supuesto, si ambas
teorías son lógicamente consistentes entre sí y el vocabulario de la primera (la reducida) puede
obtenerse a partir del de la segunda, tanto en lo que respecta a la componente teórica como a
la observacional, mediante definiciones o leyes-puente. Lo cual da lugar a una cuestión que
será de gran importancia en los años siguientes, y que puede verse ya, en forma ambivalente,
en este pasaje de Nagel: <<Las leyes de la ciencia segunda no emplean ningún término
descriptivo que no se use con más o menos el mismo significado en la ciencia primera>>.
No está claro, en efecto, que en los procesos de reducción científica el significado de los
términos, incluso el observacional, no se modifique. No es lo mismo observar los fenómenos
astronómicos desde una perspectiva copernicana (o kepleriana) que enmarcarlos en el aparato
conceptual newtoniano. Nagel reconoce esta dificultad para el segundo tipo de reducción
científica, admitiendo que la teoría reductora puede conllevar la introducción de nuevos
términos teóricos y de diferentes reglas de correspondencia con respecto a la teoría reducida.
De ahí que para que efectivamente haya un proceso de reducción por asimilación de varias
teorías en una más general, hace falta que cada una de las primeras, y desde luego la teoría
reductora, tuviesen su vocabulario teórico adecuadamente fijado y consolidado. Pero no basta
con ello. Todo término teórico nuevo, que no apareciese en las teorías reducidas, ha de ser
confrontado con cada uno de los términos teóricos de las primeras, al objeto de precisar sus
relaciones, a poder ser por medio de definiciones o de leyes, de tal manera que, una vez
cumplido este segundo requisito, todas las leyes de las teorías reducidas puedan ser deducidas
a partir de las premisas y reglas de correspondencia de la teoría reductora, con lo cual se
logrará que también lo sean sus teoremas. Y, por último, todas estas transformaciones de las
teorías reducidas han de haber sido corroboradas por la experiencia.
Surge así el paradigma de lo que más tarde se llamará concepción acumulativa del progreso
científico. La ciencia avanza mediante procesos de reducción de unas teorías a otras nuevas, y
en cada paso el contenido empírico de las teorías precedentes ha de ser perfectamente
expresable, deducible y corroborable con el nuevo vocabulario, axiomas, cálculo lógico y reglas
de correspondencia de la nueva teoría. Implícitamente se afirma que las antiguas teorías no
deben ser abandonadas, sino mejoradas, perfeccionadas y englobadas en otras más generales.
Como veremos más adelante, este tipo de planteamientos fueron uno de los principales
caballos
de batalla a partir de los años sesenta, cuando autores como Kuhn, Hanson, Feyerabend e
incluso Bohm rechazasen enérgicamente esta concepción del progreso científico.
Pero independientemente de ello, el concepto de reducción científica, en la medida en que
abrió el debate sobre una cuestión mucho más amplia, la de las relaciones entre teorías
científicas pasó a ser uno de los centrales de la filosofía de la ciencia en los últimos años.
Otro concepto importante estudiado a fondo por la concepción heredada es el de explicación.
La teoría aristotélica de la ciencia consideraba que el conocimiento científico es un
conocimiento por causas. Su influencia fue, en este aspecto, profundísima, al menos hasta el
siglo XIX, a pesar
de la radical critica de Hume a la noción de causalidad. La ciencia moderna, dentro de su
tradición esencialista, no sólo aspiraba a elaborar una descripción adecuada del mundo, sino
que mediante sus teorías pretendía lograr además una explicación de los hechos observables, y
una explicación causal; Newton y su célebre lema, Hypothesis non fingo, han encarnado el
prototipo del científico que pide que las teorías sean explicativas, por considerar esto como el
objetivo principal de la ciencia.
Una vez aceptada la crítica humeana a la noción de causalidad por parte del Círculo de Viena,
se planteó sin embargo la necesidad de mantener el concepto de explicación como algo central
en filosofía de la ciencia, ya que no el de explicación causal. Popper se ha ocupado
ampliamente de la cuestión, y ello ya en su obra La lógica de la investigación científica, de
1934. Allí afirma que, si no el principio de causalidad en su interpretación esencialista, el
científico debía seguir manteniendo un principio metodológico similar al de causalidad: <<Se
trata de la simple regla de que no abandonaremos la búsqueda de leyes universales y de un
sistema teórico coherente, ni cesaremos en nuestros intentos de explicar causalmente todo
tipo de acontecimientos que podemos describir: esta regla guía al investigador científico en su
tarea>>.
Dicha tesis de Popper no fue bien recibida por los neopositivistas ni por los instrumentalistas,
dentro de la concepción heredada. En cambio, si aceptaron su afirmación de que las teorías
científicas han de ser explicativas: <<Teorías que describan ciertas propiedades estructurales
del mundo que nos permitan deducir, valiéndonos de condiciones iniciales, los efectos que se
trata de explicar>>. La diferencia va a estribar en que la explicación científica no tiene por qué
ser pensada en términos de causa y efecto. La primera propuesta en este sentido proviene de
Carnap, aunque todavía está orientada a un ámbito restringido de las teorías científicas: <<La
tare la explicación consiste en transformar un concepto dado, más o menos inexacto, en otro
exacto, o mejor aún, en sustituir el primero por el segundo. Llamamos al concepto dado (o al
término usado en su lugar) explicandum y al concepto exacto (o al término) propuesto para
ocupar el lugar del primero exlpicatum. El explicatum debe ser introducido por medio de reglas
explícitas de uso; por ejemplo, mediante una definición que lo incorpore a un sistema bien
construido de conceptos científicos lógico-matemáticos o empíricos>>.
Tres páginas más adelante precisa todavía más los requisitos que debe cumplir el explicatum:
ser similar al explicandum, que sus reglas de uso estén formuladas con exactitud, que resulte
fructífero y que sea simple, en la medida de lo posible, en función de los requisitos anteriores.
Pero este tipo de explicación está planteada únicamente como la relación entre dos conceptos
de teorías distintas cuando una es reducida por la otra: entonces hay conceptos de la segunda
que explican los de la primera. Cabe incluso hablar de la explicación como relación entre
teorías, y no ya sólo entre conceptos; así lo hace Popper, al referirse a uno de los grandes
ejemplos de reducción científica que él estudia, el de la química a la física a partir de la
clasificación de los elementos en función de su estructura atómica: <<Todos los hallazgos de la
química pueden ser explicados completamente (es decir, deducidos) de los principios de la
física>>.
Mas el propio Popper señala que, estando relacionados entre sí los procesos de reducción y
explicación científica, el primero es algo más que una simple explicación de una teoría por otra:
implica además una comprensión teórica, y ello no sólo en el caso de las ciencias humanas o
sociales, como se afirmará con frecuencia, sino incluso en ciencias de la naturaleza, como la
biología.
La explicación científica no sólo afecta al reemplazo de un concepto por otro, ni a la reducción
teórica, sino sobre todo a la explicación de los hechos y de los fenómenos. De ahí que hiciese
falta un estudio más general de la noción de explicación, que fue iniciado en 1954 por Hempel
y Oppenheim, y continuado posteriormente por Hempel y por Nagel.
En primer lugar, hay que distinguir entre diferentes tipos de explicación, entre los cuales la
explicación causal no sería más que uno entre varios. Al respecto se han propuesto muchas
clasificaciones. Nagel distingue cuatro tipos: la explicación deductiva, la probabilística, la
teleológica (o funcional) y la genética. Nosotros nos atendremos a la clasificación más amplia
propuesta por Speck, que se adapta mejor a las ideas de Hempel, precisándolas en función de
aportaciones ulteriores. De acuerdo con ello la explicación científica podría ser de los
siguientes tipos:

1) Explicación nomológica-deductiva, que es la fundamental para la concepción heredada, en la


propuesta de Hempel y Oppenheim. En todo esquema de explicación científica de un
enunciado
E, el explanandum, habría que distinguir en el explanans dos tipos de proposiciones: unas, las
condiciones antecedentes, que pueden describir las condiciones iniciales en las que se produce
la observación que hay que explicar, o estados de cosas, o incluso hipótesis concomitantes;
llamémoslas A1, A2, …, Ak. La segunda componente estaría integrada por aquellas leyes
científicas, L1, L2, ..., Ln, en su enunciación general, que permiten explicar el fenómeno, o en su
caso el concepto científico. Son las premisas del explanans. El esquema general de la
explicación nomológica-deductiva sería, por tanto:

Y Hempel precisa que se deben cumplir las siguientes condiciones:

a) El explanandum debe ser consecuencia lógica del explanans.


b) El explanans debe contener leyes generales y éstas deben ser realmente efectivas
en la derivación del explanandum.
c) El explanans debe poseer algún contenido empírico.
d) Las proposiciones que componen el explanans deben ser verdaderas.

Estos cuatro requisitos son llamados por Hempel y Oppenheim condiciones de adecuación,
siendo las tres primeras lógicas y la cuarta la condición empírica de adecuación.

2) Explicación estadística. También estudiada por Hempel, conforme al mismo esquema


anterior. La diferencia estribaría en que al menos una de las leyes Li del explanans habría de
estar formulada en términos estadísticos.
A su vez habría dos tipos de explicación estadística: la deductivo-estadística, en la que se utiliza
una ley estadística, formulada en términos de la teoría de la probabilidad, y la inductivo-
estadística, en la que se subsume algún suceso bajo leyes estadísticas, pero no por deducción
matemática a partir de la teoría de la probabilidad. Posteriormente, en su posfacio a Aspects of
Scientific Explanation, en 1976, Hempel ha precisado que «una explicación estadística debe
mostrar que el explanandum ha de tener alta probabilidad de ocurrir».
Los restantes tipos de explicación científica son menos relevantes para la concepción heredada,
que siempre ha insistido en el modelo nomológico-deductivo, es decir en la explicación a partir
de leyes científicas, pero también se utilizan en particular en biología y en las ciencias
humanas.

3) La explicación genética, a base de describir de qué manera ha evolucionado el


explanandum. Se da por supuesto que no se mencionan todos los estados evolutivos previos,
eligiéndose sólo
aquellos que, hipotéticamente, tienen relevancia causal para el desarrollo del sistema.

4) Explicación disposicional, que ha sido desarrollada especialmente por Carnap y Ryle, a partir
de los conceptos disposicionales propugnados por el primero. Un ejemplo de este tipo de
explicación, en la que se vuelve de alguna manera a la antigua explicación causal, sería la
ruptura de una ventana al ser golpeada por un martillo, hecho que se produciría en base al
concepto 'frágil' adjudicado al cristal y que permite explicar el fenómeno sin recurrir
explícitamente a ninguna ley científica cuantitativa.

5) Explicación racional, denominación propuesta por Dray para aplicarla en particular al tipo de
explicación de los acontecimientos que se produce en las ciencias históricas. Seria a su vez
disposicional, pero añadiendo un matiz importante: la intencionalidad propia de las acciones
humanas. Este tipo de explicación se sitúa en un ámbito exclusivamente pragmático.

6) Explicación teleológica, término clásico muy utilizado para las ciencias biológicas y humanas,
y que en este siglo suele recubrir para muchos autores los actos intencionales. En 1943,
Rosenblueth, Wiener y Bigelow escribieron un importante artículo sobre el tema de la
explicación científica, titulado «Behavior, Purpose and Teleology". Aportaban en él la noción de
retroacción negativa, importante para los sistemas homeostáticos o autorregulados, tan
frecuentes en los seres vivos, mas también en muchas estructuras cibernéticas. Braithwaite y
Nagel también se ocuparon de esta cuestión: la posición general de la concepción heredada
sería
subsumir las explicaciones teleológicas o finalísticas, e incluso las intencionales (acciones
dirigidas a un objetivo), bajo el modelo de explicación causal, e incluso hacerlas compatibles
con el modelo de cobertura legal de Hempel, es decir, con la aplicación nomológica-deductiva.
Al respecto se ha producido ulteriormente la importante contribución, en 1971, de Von Wright.
Siguiendo ideas propuestas por Elisabeth Anscombe en su obra Intention, Von Wright se ha
interesado en la tradicional propuesta aristotélica de los silogismos prácticos para intentar
analizar la naturaleza de la explicación teleológica. El silogismo práctico podría ser descrito así:
[...] el punto de partida a la premisa mayor del silogismo menciona alguna cosa pretendida o la
meta de actuación; la premisa menor refiere algún acto conducente a su logro, algo así como
un medio dirigido a tal fin: por último, la conclusión consiste en el empleo de este medio para
alcanzar el fin en cuestión.
Este tipo de silogismo, según Von Wright, sería la clave para comprender lo que es la
intencionalidad y la teleología en las acciones humanas. Un ejemplo concreto de dicho
silogismo o inferencia práctica sería:
A se propone dar lugar a p.
A considera que no puede dar lugar a p a menos de hacer a.
Por consiguiente, A se dispone a hacer a.

Resulta así, siempre según Von Wright, que el explanandum de una explicación teleológica es
una acción, y que por tanto su análisis debe llevarse a cabo conforme al esquema anterior de
los silogismos prácticos, característicos de las acciones intencionales. El razonamiento anterior
explica el evento a, pero no en términos nomológicos-deductivos, por una parte, ni se limita a
explicarlo, por otra. El silogismo práctico permite, además de la explicación de un fenómeno o
evento, su comprensión. Con ello, Von Wright amplía el debate hacia un tema clásico, que
desde luego sale fuera del marco de la concepción heredada, y retoma algunos puntos de la
tradición hermenéutica: el de la explicación versus la comprensión en ciencias humanas.
Volveremos más adelante sobre este punto.
Otra importante contribución de Von Wright, en la que sintoniza con las tesis de Dray en torno
a la explicación racional, estriba en una característica específica de las ciencias humanas,
consistente en la retrodicción, que se opone al objetivo metodológico de las ciencias físicas,
que según la concepción heredada sería la predicción. Para Von Wríght, la retrodicción, o
explicación de un suceso en base a sus condiciones previas de posibilidad, sería el objetivo
principal de ciencias como la historia o el conductismo, pero también de la cosmología, la
geología o la teoría de la evolución.
Estas ideas de Von Wright han sido a su vez modificadas, basándose en las críticas que se le
hicieron en el Simposio de Helsinki de 1974.
A título de resumen, en el caso de la explicación han surgido diversas críticas al modelo
hempeliano de cobertura legal, pero en cualquier caso su misma formulación, con todas las
adiciones y perfeccionamientos que llevó a cabo el propio Hempel, abrió asimismo nuevas
líneas de investigación y de estudio para la filosofía de la ciencia.

Críticos de la concepción heredada

Quine y Putnam sobre la distinción analítico/sintético

La distinción de Carnap entre ciencias formales y ciencias reales o de contenido empírico


estaba basada en el tipo de enunciados que correspondía a cada uno de esos dos tipos de
ciencias. Las matemáticas, la lógica y las ciencias formales en general, utilizan proposiciones
analíticas, excluyendo las proposiciones contradictorias, por ejemplo, por el método de
reducción al absurdo. El resto de las ciencias, en cambio, aunque pueden ser auxiliadas por
conceptos y técnicas lógicas y matemáticas, se distingue de éstas porque también cuentan, y
en ello reside su especificidad, con proposiciones sintéticas. La teoría de la ciencia del Circulo
de Viena, y por supuesto también la de la concepción heredada, tenía como uno de sus pivotes
principales la distinción entre proposiciones analíticas y sintéticas.
Esa distinción proviene de Kant. En la Crítica de la razón pura, Kant afirma que un juicio, del
tipo A es B, es analítico cuando el predicado B pertenece al sujeto como algo que,
implícitamente, está contenido en él, y como ejemplo de juicio analítico alude al enunciado
<<todos los cuerpos son extensos>>.
Cuando el predicado no está contenido en el sujeto, aunque pueda estar en relación con él, el
juicio es sintético. Para Kant todos los juicios matemáticos son sintéticos, con excepción de los
enunciados propiamente lógicos, como «el todo es mayor que la parte». Y además sintéticos a
priori, es decir, que no son conocidos por medio de la experiencia. También en la física hay,
para Kant, algunos enunciados sintéticos a priori, como el principio de acción y reacción en las
leyes del movimiento.
Aunque el Círculo de Viena iba a negar estas últimas tesis kantianas (para ellos las matemáticas
son puramente analíticas, y las ciencias empíricas proceden en todos sus enunciados no lógicos
de la experiencia), había mantenido la distinción entre proposiciones analíticas y sintéticas,
precisamente porque ello le permitía zanjar el problema de las matemáticas y de la lógica en
tanto ciencias, para pasar a ocuparse exclusivamente de lo que en verdad formaba parte de su
programa empirista: las Realwissenschaften (ciencias positivas). El siguiente pasaje de Carnap
es claro al respecto: <<Las proposiciones (con sentido) se dividen en las siguientes clases: En
primer término, aquellas proposiciones que son verdaderas por su forma («tautologías», según
Wittgenstein, que corresponden aproximadamente a los «juicios analíticos» de Kant); éstas no
dicen nada acerca de la realidad. Las fórmulas de la lógica y de la matemática son de esta clase.
Por si mismas no son enunciados empíricos, pero sirven para transformar dichos enunciados.
En segundo término, existen las formas inversas de esas proposiciones («contradicciones»).
Éstas son contradictorias y por lo tanto falsas en virtud de su forma.
Para todas las demás proposiciones la decisión sobre su verdad o su falsedad radica en las
proposiciones protocolares, por lo cual son «proposiciones empíricas» (verdaderas o falsas) y
pertenecen al dominio de la ciencia empírica. Cualquiera otra proposición que se construyera y
que no encajase en alguna de estas dos clases pasaría a carecer automáticamente de
sentido>>. Los enunciados analíticos y las tautologías (entre las cuales se incluyen todos los
axiomas y teoremas de las matemáticas) quedan identificados, agotando el campo de lo a
priori. No hay enunciados sintéticos a priori para la concepción heredada. Los enunciados
sintéticos son todos a posteriori, es decir, empíricos: se obtienen por inducción, según Carnap
en 1932, a partir de las proposiciones protocolares. El resto de las frases gramaticalmente
construibles, pero que no son ni analíticas ni sintéticas, quedan excluidas de la ciencia.
Quine, en un célebre artículo publicado en 1951, «Dos dogmas del empirismo», lanzó un
virulento ataque contra la distinción misma analítico/sintético. Para él era insostenible y debía
ser abandonada, porque no tenía ninguna utilidad para la ciencia. En primer lugar, hay dos
tipos de enunciados analíticos: los lógicos y los que ponen en relación términos sinónimos. Si
decimos que «ningún soltero es casado» estamos en el segundo de los casos. Si <<ningún
hombre no casado es un hombre casado» en el primero. Y ocurre que la noción de sinonimia
está lejos de ser clara, como quedó claro en el largo debate que se produjo ulteriormente al
respecto. Y en segundo lugar: la verdad de un enunciado sintético no se llega a dilucidar
confrontándolo con la empiria. Quine es un defensor de la concepción holista de las teorías
científicas, que las considera como un todo, y no como un conjunto disgregado de
proposiciones individualizadamente verdaderas: [...] nuestros enunciados acerca del mundo
externo se someten como cuerpo total y no individualmente al tribunal de la experiencia
sensible.
Este segundo dogma del empirismo, es decir la concepción atomista y no holista de las teorías,
viene a coincidir, según Quine, con el primero: la distinción analítico/sintético.
Numerosos defensores de la concepción heredada replicaron a Quine en su mayor parte a base
de aportar ejemplos de enunciados analíticos y sintéticos, como manera de defender la
distinción. Pero como señaló Putnam en 1962, en su no menos celebre artículo «The analytic
and the synthetic», tan erróneo es negar la existencia de enunciados analíticos y sintéticos
como sobrevalorar la importancia de dicha distinción. Su tesis fue que «sobrecargar la
distinción analítico/sintético es otro de los motivos que distorsionan al máximo los escritos de
la filosofía convencional de la ciencia», es decir, de la concepción heredada. Para Putnam hay
efectivamente enunciados analíticos, como los hay sintéticos, pero no todos los enunciados
científicos son analíticos o sintéticos. La mayoría de las definiciones científicas, e incluso las
leyes, son enunciados de los que no podemos afirmar que sean analíticos ni sintéticos. Con lo
cual da en el fondo la razón a Quine: la distinción no es útil para la filosofía de la ciencia y debe
ser abandonada.
El artículo de Putnam, aunque también tuvo réplicas, produjo un gran impacto, tanto por la
serenidad con la que estaba escrito como por lo convincente de sus argumentos en favor de la
existencia de conceptos de grupos de leyes, es decir de grupos de leyes que determinan la
identidad de un concepto científico, como el de energía, pero sin por ello definirlo. Para tales
conceptos la distinción anterior no es útil, y sin embargo son conceptos científicos
fundamentales.
El ataque de Putnam a la distinción analítico/sintético llevó aparejado, como era de prever, un
ataque paralelo a la distinción teórico/observacional, que al cabo depende estrechamente de
la primera. En efecto, tal y como ha mostrado Frederick Suppe: <<La idea de que los
enunciados son analíticos o sintéticos en este sentido es central a la concepción heredada, al
conferir racionalidad a su dependencia de la distinción teórico/observacional. La distinción
teórico/observacional divide los términos no lógicos de una teoría en Vo y Vt, donde los
términos de Vo se refieren a cosas directamente observables. Como Lo se ve limitado a los
términos no lógicos de Vo y tiene una estructura lógica limitada, todos los enunciados de Lo son
analíticos o sintéticos en sentido estricto. Hemos visto antes que lo que Carnap pretendía con
su uso de postulados de significado era separar los enunciados de L que tienen contenido
significativo de los que tienen contenido fáctico. Por tanto, cualquier enunciado no analítico S
de L, tomado junto con los postulados de significado M, seria tal que «M, S» tendría
consecuencias Lo que permitirían que S fuera inductivamente confirmado o disconfirmado por
separado. (Como M se supone que es analítico y que no tiene contenido fáctico alguno, los
elementos de juicio directamente observables inciden solamente sobre la verdad de S, y no de
la de M) Por consiguiente, S sería sintético. Así pues, la función de la distinción
teórico/observacional es garantizar que todo enunciado no analítico de L es sintético: los
enunciados Lo no analíticos son sintéticos; y todo enunciado de L que contenga términos Vt con
consecuencias observables comprobables será sintético. Sin embargo, hemos visto que los
enunciados de L no pueden dividirse en aquellos que tienen contenido significativo y los que
tienen contenido fáctico; o para decirlo de forma más específica, los enunciados de M no
tienen exclusivamente contenido significativo, puesto que contienen conceptos de grupos de
leyes. Por tanto, la mayoría de los enunciados de L no son ni analíticos ni sintéticos. De ahí que
no pueda sostenerse la racionalidad de la distinción teórico/observacional>>.
Quine y Putnam habían apuntado, por tanto, al centro mismo de la concepción heredada. Se
trataba de la primera gran <<anomalía>>, por usar el término kuhniano a título de metáfora,
para la cual no se encontraba componenda en el marco de dicha concepción. El propio
Hempel, al convencerse de que la distinción analítico/sintético era insostenible para la ciencia,
abandonó la distinción teórico/observacional. Con lo cual estos primeros críticos de la
concepción heredada comenzaron a minar fuertemente la confianza que hasta entonces la
mayoría de los epistemólogos le habían otorgado, dando lugar a que algunos de ellos volvieran
sus ojos hacia posturas alternativas, como la de Popper, o incluso radicalmente opuestas a la
concepción heredada, como las de Kuhn, Feyerabend y Lakatos.

Toulmin y el instrumentalismo

Stephen Toulmin se opuso desde sus primeras obras publicadas, en 1953 y 1961, a varias de las
tesis de la concepción heredada. Su posición general respecto a las teorías científicas es
instrumentalista. Para él, ni las leyes ni las teorías son verdaderas ni falsas. Para poderlas
aplicar a los fenómenos se requieren instrucciones complementarias, sin las cuales los
enunciados nómicos de las teorías, e incluso muchos conceptos fundamentales de las mismas,
no podrían ser identificados en el ámbito fenoménico. Argumento que con posterioridad
retomará Lakatos. En relación con la concepción heredada distinguió, con ocasión de su
«Postscriptum" a las Actas del Simposio de Urbana, hasta cuatro puntos de divergencia con
ella, que son expuestos en forma de cuestiones de la manera siguiente:

1a) ¿Existe alguna forma o algún simbolismo estándar y obligatorio para analizar la estructura
axiomática de cualquier teoría científica sea la que sea?
1b) ¿Es la forma axiomática la única «estructura lógica» legitima para la ciencia o puede haber
otras formas lógicas dentro de las que pueda ser legítimamente analizado el contenido de una
teoría científica?
1c) ¿Cuál es la naturaleza de la «correspondencia>> por la que los elementos formales de una
teoría científica adquieren relevancia o interpretación empírica?
1d) ¿Puede el contenido intelectual de la ciencia natural en un cierto corte temporal de su
desarrollo ser expresado como una red sistemática de relaciones lógicas?

La respuesta a la primera pregunta la considera ya dada por los filósofos de la ciencia de la


década de los sesenta: ya no se trata de buscar una forma única de lenguaje, como la fisicalista,
que tuviese preferencia con respecto a las demás como modo de expresión de las teorías
científicas. Por el contrario: para Toulmin, muy influido por el Wittgenstein de las
Philosophische Untersuchungen en este punto, cada teoría posee su lenguaje propio, y la
adopción de una nueva teoría lleva consigo un cambio de lenguaje. Pueden incluso aparecer
términos nuevos, pero lo que siempre ocurre en un proceso de cambio científico es que los
términos antiguos cambian de significado. El significado de los términos científicos contra lo
que pensara la concepción heredada con su observacionalismo y con su creencia en una base
empírica común a todas las teorías, depende de cada teoría. Las teorías son una
Weltanschauung, una visión del mundo. Buscar una forma de lenguaje común a todas ellas, por
muy formalizada que esté, es una tarea vana, porque supondría privarlas de su especificidad,
de lo que caracteriza a cada una como concepción del mundo, o al menos del ámbito que es
objeto de su estudio.
Respecto a la segunda pregunta, Toulmin responde netamente que la axiomatización no es la
única forma útil para el análisis científico, y menciona las taxonomías como otro tipo de análisis
que no es reducible al método axiomático. Con lo cual choca de nuevo frontalmente con otro
de los pivotes de la concepción heredada. No sólo se niega el fisicalismo, sino incluso la
reducción de las teorías científicas a sistemas axiomatizados.
La tercera cuestión, al ser de carácter netamente epistemológico, le parece a Toulmin la
manzana de la discordia: los filósofos de la ciencia no se pondrán de acuerdo al respecto. Por
su parte, además de manifestar su simpatía hacia alguna de las críticas de Putnam en el
Simposio a las reglas de correspondencia y a la reducción de la epistemología al contexto de
justificación, punto éste en el que Toulmin está en estricto desacuerdo con la concepción
heredada, opta por los modelos como lazo entre las leyes científicas y la experiencia. Las leyes
son esquemas, formas: son los modelos de las teorías los que nos permiten aplicar las leyes a
los fenómenos. Va a ser, sin embargo, la cuarta la que mejor le permita exponer concepciones
que van a ser retomadas en gran parte por la filosofía de la ciencia posterior a la concepción
heredada. Según Toulmin, se ha prestado muy poca atención a las lagunas, fallos e
incoherencias de una teoría, entendidas no como avatares desafortunados y corregibles, sino
como elementos constitutivos de su estructura. Y sin embargo son ellas, mucho más que la
aplicación de los cálculos deductivos, las que suscitan la investigación científica y promueven el
desarrollo de las teorías. Ahora bien, esos <<agujeros teóricos>> no pueden ser incluidos ni
tratados en un cálculo formalizado, y precisamente de ello proviene la insuficiencia del
axiomatismo para reflejar las teorías en toda su complejidad y sus insuficiencias: <<Una ciencia
típica, lejos de formar un sistema lógico completo, permanece como tema vivo y activo, como
campo de desarrollo de la investigación gracias a sus fallos lógicos y a sus inconsistencias; su
real carácter atípico, no sistemático, no axiomático es lo que genera la verdadera persecución
de los problemas>>.
La filosofía de la ciencia, continúa Toulmin, debe dejar de interesarse por las teorías científicas
asentadas, como a geometría o la mecánica, para investigar las teorías en su proceso de
constitución y de desarrollo, con todas las discontinuidades que ello puede implicar en su
estructura lógica; por lo mismo, la estructura de una teoría no puede ser recogida en sistemas
formalizados: <<Ha llegado la hora de ir más allá de la imagen estática, <<instantánea>>, de las
teorías científicas a la que los filósofos de la ciencia se han autolimitado durante tanto tiempo y
de desarrollar una <<imagen móvil>> de los problemas y procedimientos científicos, en cuyos
términos la dinámica intelectual del cambio conceptual en la ciencia llegue a ser inteligible, y
transparente la naturaleza de su racionalidad>>.
Es claro que se anuncian nuevos tiempos. Toulmin no conseguirá aglutinar en torno a sus ideas
una escuela capaz de revelar a la concepción heredada, pero con su insistencia en la dinámica
de las teorías, y en la importancia de la historia y del contexto de descubrimiento para la
epistemología, está escribiendo con su <<Postscriptum>> al Simposio de Urbana el acta de
defunción de la concepción heredada. Sus trabajos ulteriores sobre el cambio de los conceptos
confirman su carácter de precursor de las nuevas corrientes de pensamiento que, ya en la
década de los sesenta, y en buena medida por la influencia de autores como Toulmin, iban a
desplegarse como alternativas netas a la concepción heredada.

Hanson y la observación científica

Hanson también se vio influido profundamente por el Wittgenstein de las Philosophische


Untersuchungen, llegando a adoptar posturas criticas asimismo muy claras y radicales en
contra de varios de los postulados centrales de la concepción heredada. Con lo cual resultaría
que el mismo autor, Wittgenstein, cuya obra contribuyo en gran manera a la creación del
Círculo de Viena, al menos como catalizador del mismo, fue también el que contribuyo,
muchos años después y por influencia del llamado «segundo Wittgenstein», a su decadencia.
La oposición principal de Hanson, al igual que sucedía en el caso de Toulmin, pero también en
el de Putnam (aunque apenas hayamos insistido en este último punto), es a la restricción de la
filosofía de la ciencia al contexto de justificación. En su obra Patrones de descubrimiento, y ya
desde el principio de la misma, se queja de que los filósofos desfiguren las teorías físicas,
aludiendo muy pocas veces a los conceptos que de verdad utilizan los científicos: <<La razón es
simple. Ellos han considerado como paradigmas de la investigación física sistemas
completamente desarrollados como la mecánica celeste, la óptica, el electromagnetismo y la
termodinámica clásica y no ciencias no acabadas, dinámicas y el proceso de búsqueda, como la
microfísica>>.
Y este error básico arrastra consigo otros, en cadena. Las nociones de observación, de hecho,
de hipótesis, de ley, incluso de teoría, están fosilizadas a fortiori por esta falta de contacto de
los filósofos de la ciencia con la investigación real, al centrarse exclusivamente en las
venerables teorías históricas, y entre ellas sólo en las más respaldadas y acreditadas. De ahí
que Hanson opte por considerar uno a uno todos y cada uno de los conceptos fundamentales
de la epistemología neopositivista, para irlos analizando y criticando.
Aquí sólo nos centraremos en dos de sus análisis, el de observación y el de causalidad, en la
medida en que el primero ha tenido una enorme incidencia y el segundo nos permite ver un
nuevo planteamiento de la noción de explicación científica.
Las tesis de Hanson sobre la observación científica, que vamos a ver a continuación, estaban
influidas profundamente por La psicología de la Gestalt, cuyos autores principales menciona
repetidas veces, así como por Wittgenstein. Pero ya Duhem las había preludiado, en un pasaje
que Hanson cita explícitamente y que merece la pena recordar: <<Entre en un laboratorio,
acérquese a una mesa atestada de aparatos, una batería eléctrica, alambre de cobre con
envoltura de seda, pequeñas cubetas con mercurio, bobinas, un espejo montado sobre una
barra de hierro. El experimentador está insertando en pequeñas aberturas los extremos
metálicos de unas clavijas con cabeza de ébano. El hierro oscila y el espejo sujeto a él envía una
señal luminosa sobre una escala de celuloide; los movimientos de vaivén de esta mancha
luminosa permiten al físico observar las pequeñas oscilaciones de la barra de hierro. Pero
pregúntele qué está haciendo. ¿Le contestará: «Estoy estudiando las oscilaciones de una barra
de hierro que transporta un espejo»? No; dirá que está midiendo la resistencia eléctrica de las
bobinas. Si usted se queda atónito, si usted le pregunta qué significan sus palabras, qué
relación tienen con los fenómenos que ha estado observando y que usted ha advertido al
mismo tiempo
que él, le contestará que su pregunta requiere una larga explicación y que usted debería seguir
un curso de electricidad>>.
Las observaciones que se efectúan en los laboratorios nunca son triviales ni inmediatas:
requieren unos conocimientos previos. El neófito es incapaz de percibir lo que capta un
especialista al estudiar los resultados de un análisis o de un experimento. Hay que conocer la
jerga correspondiente, saber por qué cada instrumento está dispuesto como lo está, tener idea
de lo que es significativo y lo que no en los resultados obtenidos, etc.
Pero ampliando este tipo de consideraciones, que en principio pueden parecer triviales,
Hanson va a formular una cuestión clave para la ulterior filosofía de la ciencia y que la
concepción heredada no había advertido. Si contraponemos a dos científicos que defienden
teorías contrapuestas sobre los mismos fenómenos, ¿perciben ambos lo mismo al observar un
experimento?
Para ilustrar la cuestión propone dos ejemplos, uno biológico y otro que puede resultar más
accesible: <<Pensemos en Johannes Kepler. Imaginémoslo en una colina mirando el amanecer.
Con él está Tycho Brahe. Kepler considera que el Sol está fijo, es la Tierra la que se mueve. Pero
Tycho, siguiendo a Aristóteles, al menos en esto, sostiene que la Tierra está fija y que los demás
cuerpos celestes se mueven alrededor de ella. ¿Ven Kepler y Tycho la misma cosa en el Este, al
amanecer?
Para responder a la pregunta de nada vale investigar sus respectivas imágenes retinianas: <<La
visión es una experiencia. Una reacción de la retina es solamente un estado físico, una
excitación fotoquímica>>. Tycho y Kepler están viendo el mismo objeto físico, un disco
luminoso y brillante, de un color blanquecino amarillo, situado en un espacio azul sobre una
zona verde. Pero no observan lo mismo. William James resolvía el problema afirmando que sus
interpretaciones de los datos sensoriales son diferentes: <<Naturalmente, ellos ven la misma
cosa. Hacen la misma observación puesto que parten de los mismos datos visuales. Pero lo que
ven lo interpretan de una forma diferente. Interpretan los datos de una manera distinta>>.
Pero a Hanson esta solución no le parece suficiente. La psicología de la Gestalt ha mostrado,
con múltiples experimentos, que sobre la misma imagen se pueden ver objetos diferentes:
<<Decir que Kepler y Tycho ven la misma cosa al amanecer sólo porque sus ojos son afectados
de un modo similar es un error elemental. Existe una gran diferencia entre un estado físico y
una experiencia visual>>.
O también: <<Es demasiado fácil decir que Tycho y Kepler, Simplicio y Galileo, Hooke y Newton,
Priestley y Lavoisier, Soddy y Einstein, De Broglie y Born, Heisenberg y Bohm hacen las mismas
observaciones pero las utilizan de forma diferente. Esto no explica las controversias existentes
en las ciencias en proceso de búsqueda. Si no hubiera ningún sentido en el que las
observaciones fueran distintas, no podrían ser usadas de forma diferente>>.
Como puede comprobarse, Hanson está atacando uno de los pivotes más firmes de la
concepción heredada y del neopositivismo: la común base sensorial y observacional de las
percepciones sensoriales. Esa tesis sólo puede ser mantenida cuando el filósofo de la ciencia
ha estudiado las teorías ya constituidas y aceptadas, en el marco de las cuales sus cultivadores
efectivamente ven igual los fenómenos. Pero en las fases de descubrimiento, con las
controversias entre teorías que suelen acompañarla, la cuestión debe ser planteada en otros
términos. Investigar la lógica del descubrimiento implica elaborar una nueva teoría sobre la
observación científica, para lo cual Hanson aporta la siguiente tesis fundamental: <<La visión es
una acción que lleva una <<carga teórica>>. La observación de x está moldeada por un
conocimiento previo de x. el lenguaje o las notaciones usados para expresar lo que conocemos,
y sin los cuales habría muy poco que pudiera reconocerse como conocimiento, ejercen también
influencias sobre las observaciones>>.
Si volvemos ahora al ejemplo imaginario de Kepler y Brahe viendo el Sol, Hanson concluye que
los campos visuales respectivos tienen una organización diferente, desde el punto de vista
conceptual. Y desde luego, la observación científica no es inmediata ni ingenua. Está cargada
conceptualmente y determinada por el contexto en el cual tiene lugar, y en dicho contexto
influyen las teorías científicas.
Con lo cual resulta que la distinción teórico/observacional de la concepción heredada, que ya
había sido criticada y debilitada por diversos autores, va a sufrir un último y definitivo embate
con esta argumentación de Hanson, basada en último término en la psicología de la Gestalt,
pero también en las Philosophische Untersuchungen de Wittgenstein, obra que Hanson cita
explícitamente para matizar sus tesis con respecto a ella, en particular en lo que se refiere a la
distinción entre «ver» y «ver como».
Entre las imágenes y el lenguaje hay un abismo, afirma Hanson. El lenguaje observacional, caso
de mantenerse esa noción, no se reduce a imágenes ni a sensaciones: cada uno de sus
términos
posee una componente teórica y conceptual. Esta tesis de Hanson ha hecho fortuna y suele ser
mencionada con aprobación por la mayoría de los filósofos de la ciencia ulteriores. Al estudiar
la cuestión de la causalidad y de la explicación científica Hanson va a retomar similares
argumentos, e incluso a precisarlos todavía más. Parte de la pretensión laplaciana según la cual
a partir de un estado del universo y de todas las leyes causales, podría predecirse (y
retrodecirse) todo estado futuro (o anterior) de dicho universo: <<Una inteligencia que
conociera en un instante dado todas las fuerzas que animan a la naturaleza y la situación
respectiva de los seres que la componen, si por otra parte fuese lo suficientemente capaz como
para someter todos esos datos al análisis, en una misma fórmula llegaría a englobar los
movimientos de los cuerpos más grandes del universo, así como los del átomo más ligero: nada
sería incierto para ella, y el porvenir y el pasado estarían presentes ante sus ojos. El espíritu
humano ofrece, en la perfección que ha sabido dar a la astronomía, un débil esbozo de dicha
inteligencia>>.
Hanson va a criticar esta concepción laplaciana, en base a que, según él las explicaciones que
recurren a cadenas causales siempre están cargadas por presuposiciones no explicitas. Al igual
que en el caso de la observación, «las llamadas causas están cargadas de teoría desde el
principio al fin>>. Explicar un fenómeno x no consiste en buscar su causa antecedente, sino en
insertarlo en un sistema conceptual, en una teoría, en cuyo marco cobra sentido y significado;
mientras que en otra teoría igual es irrelevante. Por poner un ejemplo clásico: <<Galileo
estudió la Luna frecuentemente. Está surcada de agujeros y discontinuidades; pero decir de
éstos que son cráteres -decir que la superficie lunar está llena de cráteres- es insertar
astronomía teórica en las observaciones personales. ¿Un valle natural profundo es un cráter?
Los mineros excavan abrupta y profundamente, pero su resultado ¿es más que un agujero? No;
no es un cráter. Un pozo abandonado no es un cráter; tampoco lo es el vórtice de un torbellino.
Decir que una concavidad es un cráter equivale a comprometerse con su origen, decir que su
origen fue violento, rápido, explosivo. Las explosiones de artillería producen cráteres, e
igualmente los hacen los meteoritos y los volcanes. Los dibujos de la superficie de la Luna
serian simplemente dibujos de una esfera marcada con hoyos. Pero Galileo vio cráteres>>.
Hanson llama la atención así sobre un aspecto de la lógica del descubrimiento que no había
sido advertido: no ya sólo la observación, o la explicación científica, están influidas por las
teorías, es
Decir, por sistemas conceptuales sin los cuales ni se ve, ni se entiende ni se puede llegar a
explicar ningún fenómeno, sino que la propia elección de los términos en el lenguaje
observacional orienta luego la investigación en una dirección o en otra, y por lo tanto puede
ser heurísticamente más o menos afortunada. La historia de la ciencia está llena de ejemplos
en los que una inadecuada elección de las denominaciones dio lugar a que los planteamientos
teóricos que se desarrollaban por medio de ese vocabulario fuesen mal recibidos por la
comunidad científica, dando lugar con ello a que dichas teorías no llegaran a ser aceptadas,
teniendo que ser redescubiertas mucho tiempo después.
Hanson insiste, por consiguiente, en el aspecto sistémico de las teorías científicas, y en
concreto de su vocabulario y de su terminología. Abre con ello una nueva vía de investigación;
críticas particularmente agudas y contundentes a la concepción heredada: <<Las palabras de
causa se parecen a la jerga de un juego, como se señaló anteriormente. 'Revocar', 'triunfo',
'finura' pertenecen a la fraseología del bridge. Cada término contiene implícitamente todo el
modelo conceptual del juego; no se puede entender propiamente ninguna de estas ideas sin
entender las restantes. Así también 'alfil', 'torre', 'jaque mate', 'gambito' se interrelacionan
entre sí y con todas las demás expresiones que se usan al jugar al ajedrez o escribir sobre él. Lo
mismo ocurre con 'presión', ' temperatura', 'volumen', 'conductor', ' aislante', 'carga' y
'descarga', 'longitud de onda', 'amplitud', 'frecuencia', 'elástico', 'tensión', 'esfuerzo' y
'deformación' en el campo de la física; 'ingestión', 'digestión', 'asimilación', 'excreción' y
'respiración' en biología; 'herida', 'veneno', 'umbral', en medicina; 'árbol de ruedas', 'escape',
'péndulo' y 'volante', en relojería. Para entender cada una de estas ideas completamente, es
necesario conocer toda la trama de conceptos de la correspondiente disciplina. Esto ayuda a
mostrar cómo las palabras de causa están cargadas de implicaciones teóricas en relación con
sus palabras de efecto.
La concepción atomista de la concepción heredada, basada en la pretensión de que cada
término (teórico u observacional) posee significado por sí mismo, ha de ser rechazada, porque
induce sobre la reflexión epistemológica una pseudoproblemática que, por mucho ingenio que
se despliegue luego para resolverla, no tendrá la menor utilidad, por estar totalmente
desligada de la actividad real de los científicos. Las teorías son sistemas conceptuales, y cada
uno de los términos de su vocabulario sólo adquiere significado, si además de uno o varios
referentes empíricos o fenoménicos, los restantes términos de la teoría delimitan, acotan y
precisan dicho significado. Concepción ésta de las teorías que, como es claro, está ya en
oposición frontal a la tradición de atomismo lógico, o epistemológico, como sería la
caracterización más adecuada.
Popper, K. – Conocimiento Objetivo. Un enfoque evolucionista.

El conocimiento como conjetura: mi solución al problema de la inducción

Al hablar del problema filosófico tradicional de la induccióon (que llamaré "Tr") me refiero a
formulaciones como las siguientes:

Tr: ¿Cómo se justifica la creencia de que el futuro será (en gran medida) como el pasado? O, tal
vez, ¿cómo se justifican las inferencias inductivas?
Estas preguntas están mal formuladas por diversas razones. La primera, por ejemplo, supone
que el futuro será como el pasado. Personalmente, considero un error suponer tal cosa, a
menos que la palabra "como" se tome en un sentido tan flexible que haga que dicha suposición
sea vacía e inocua. La segunda formulación supone la existencia de inferencias inductivas y de
reglas para obtenerlas, lo que significa, una vez más, hacer una suposición acrítica que me
parece equivocada. Pienso, por tanto, que ambas formulaciones son sencillamente acríticas y
lo mismo podría decirse de muchas otras. Por tanto, me he impuesto fundamentalmente la
tarea de formular una vez más el problema que está detrás, a mi parecer, de lo que he llamado
el problema filosófico tradicional de la inducción.
Las formulaciones, ya tradicionales, datan de fecha histórica reciente: surgen de la crítica de
Hume a la inducción y de su impacto sobre la teoría del conocimiento del sentido común.

El problema de la inducción del sentido común

La teoría del conocimiento del sentido común, que he apodado “la teoría de la mente como un
cubo”, queda perfectamente recogida en la frase “nada hay en el intelecto que no haya pasado
antes por los sentidos”. (Parménides fue el primero en formular este punto de vista. Dicho en
tono satírico: la mayor parte de los mortales no tienen nada en sus falibles intelectos que no
haya pasado antes por sus falibles sentidos).
A pesar de todo, esperamos cosas y creemos con firmeza en ciertas regularidades (leyes de la
naturaleza, teorías), lo que nos lleva al problema de la inducción del sentido común (que
llamaré “Cs”):

Cs: ¿Cómo pueden haber surgido estas expectativas y creencias?

La respuesta del sentido común consiste en decir que estas creencias surgen en virtud de
reiteradas observaciones hechas en el pasado: creemos que el sol saldrá mañana porque así ha
ocurrido en el pasado.
Desde el punto de vista del sentido común se da por supuesto, sin más problemas, que
nuestras creencias en regularidades se justifican mediante esas observaciones reiteradas
responsables de su génesis. (Lo que los filósofos desde Aristóteles y Cicerón han llamado
“epagoge” o “inducción” es esa génesis cum justificación, debidas ambas a la reiteración).
Los dos problemas de la inducción de Hume

Hume estaba interesado por la condición del conocimiento humano o, como él diría, por el
problema de si nuestras creencias (o, al menos, algunas de ellas) se pueden justificar con
razones suficientes. Planteó dos preguntas, una lógica (Hl) y otra psicológica (Hps), con la
característica importante de que sus respuestas chocan entre sí de algún modo.

La pregunta lógica es la siguiente:

Hl: ¿Cómo se justifica que, partiendo de casos (reiterados) de los que tenemos experiencia,
lleguemos mediante el razonamiento a otros casos (conclusiones) de los que no tenemos
experiencia?
La respuesta de Hume a H’l consiste en negar que haya alguna justificación, por grande que sea
el número de repeticiones. También mostró que la situación lógica sigue siendo exactamente la
misma cuando ponemos la palabra “probable” después de “conclusiones” o cuando
sustituimos las palabras “a casos” por “a la probabilidad de casos”.

La pregunta psicológica es la siguiente:

Hps: ¿Por qué, a pesar de todo, las personas razonables esperan y creen que los casos de los
que no tienen experiencia van a ser semejantes a aquellos de los que tienen experiencia? Es
decir, ¿por qué confiamos tanto en las experiencias que tenemos?
La respuesta de Hume se centra en la “costumbre o hábito”; es decir, porque estamos
condicionados por las repeticiones y el mecanismo de asociación de ideas, mecanismo sin el
cual, dice Hume, difícilmente sobreviviríamos.

Consecuencias importantes de los resultados de Hume

A causa de estos resultados, Hume, se convirtió en un escéptico a la vez que en un creyente: un


creyente en una epistemología irracionalista. La conclusión de que la reiteración carece de
todo valor como argumento, aunque domina nuestra vida cognitiva o nuestro “entendimiento”,
le condujo a afirmar que la argumentación o la razón desempeñan en él un papel secundario.
El entendimiento queda desenmascarado y muestra que es no ya del mismo carácter que las
creencias, sino del mismo carácter que las creencias indefendibles racionalmente; es una fe
irracional.
De la solución que doy al problema de la inducción no se deriva esta conclusión irracionalista.
Esta misma conclusión fue enunciada por Russell de un modo más enérgico y desesperado.
Russell dice sobre el tratamiento de la inducción que ha Hume: “La filosofía de Hume…
representa la bancarrota de la racionalidad del siglo XVIII” y, “por eso es importante averiguar
si existe una respuesta a Hume en el seno de una filosofía total o fundamentalmente empírica.
En caso contrario, no hay diferencia intelectual entre razón y locura. El lunático que cree ser un
huevo escalfado ha de ser condenado únicamente porque está en minoría…”.
Russell llega a decir que si se rechaza la inducción (o el principio de inducción), “todo intento
de llegar a leyes científicas generales a partir de observaciones particulares es falaz, con lo que
el escepticismo de Hume es insoslayable para un empirista”. Por tanto, Russell subraya la
contradicción existente entre la respuesta de Hume a Hl y (a) la racionalidad, (b) el empirismo y
(c) los procedimientos científicos.
Si se acepta mi solución al problema de la inducción, todas estas dificultades desaparecen. No
hay contradicción entre mi teoría de la no-inducción, por un lado, y la racionalidad, el
empirismo o los procedimientos científicos, por otro.

Mi manera de enfocar el problema de la inducción

(1) Considero de la mayor importancia la distinción, implícita en el tratamiento de Hume, entre


el problema lógico y el psicológico, aunque no me satisface lo que entiende Hume por lo que
llamo “lógico”. Describe, con toda claridad, procesos de inferencia válida, pero los considera
procesos mentales “racionales”.
Por el contrario, al tratar de cualquier tipo de problemas lógicos, una de las maneras
principales que tengo de plantear la cuestión consiste en traducir a términos objetivos todos
los términos subjetivos o psicológicos, especialmente, “creencia”, etc. así, en vez de hablar de
“creencia”, hablo, por ejemplo, de “enunciado” o de “teoría explicativa”, en lugar de hablar de
“impresión”, hablo de “enunciado observacional” o “enunciado contrastador” y en lugar de
hablar de “justificación de una creencia”, hablo de “justificación de la pretensión de que una
teoría sea verdadera”, etc.
Este modo de decir las cosas de una manera objetiva, lógica o “formal” se puede aplicar a Hl,
pero no a Hps. No obstante:
(2) Una vez resuelto el problema lógico, Hl, la solución se aplica al psicológico, Hps, según el
siguiente principio de transferencia: lo que es verdad en el dominio de la lógica, lo es también
en el de la psicología. (También hay un principio análogo de gran utilidad en lo que se suele
llamar “método científico”, así como en la historia de la ciencia: lo que es verdad en el dominio
de la lógica, lo es también en el método científico y en la historia de la ciencia). Admito que
esto constituye una conjetura un tanto arriesgada en psicología del pensamiento o de los
procesos cognitivos.
(3) El principio de transferencia garantiza la eliminación del irracionalismo de Hume. Si puedo
resolver el problema de la inducción, incluyendo Hps, sin violar el principio de transferencia, no
habrá contradicción entre la lógica y la psicología y, por tanto, se evitará la conclusión de que
nuestro conocimiento es irracional.
(4) Este programa, unido a la solución que da Hume de Hl, implica muchas más cosas sobre la
relación lógica entre teorías científicas y observaciones que las que señala Hl.
(5) Uno de los principales resultados obtenidos es el siguiente: puesto que Hume está en lo
cierto al señalar que desde un punto de vista lógico no existe inducción por repetición, en
virtud del principio de transferencia, tampoco puede haber tal cosa en psicología (o en el
método científico o en historia de la ciencia). La idea de inducción por repetición debe
achacarse a un error, una especie de ilusión óptica. Resumiendo: no hay inducción por
repetición.

El problema lógico de la inducción: replanteamiento y solución

De acuerdo con lo que acabo de decir en el punto (2), he de replantear el HL de Hume en un


lenguaje objetivo y lógico. A este fin, sustituiré la expresión de Hume “casos de los que
tenemos experiencias” por “enunciados observacionales”, es decir, enunciados singulares que
describen sucesos observables (“enunciados observacionales” o “enunciados básicos”) y “casos
de los que no tenemos experiencia” por “teorías explicativas universales”.
Mi formulación del problema lógico de la inducción de Hume es la siguiente:
L1: ¿Se puede justificar la pretensión de que una teoría explicativa universal sea verdadera
mediante “razones empíricas”, es decir, suponiendo la verdad de ciertos enunciados
contrastadores u observacionales (los cuales, hay que decirlo, están “basados en la
experiencia”)?
Mi respuesta es como la de Hume: No, no podemos; ningún conjunto de enunciados
contrastadores verdaderos podrá justificar la pretensión de que una teoría explicativa universal
es verdadera. (Una teoría explicativa va necesariamente más allá de un conjunto finito de
enunciados contrastadores; lo mismo se puede decir incluso de una ley con un grado reducido
de universalidad).
Pero hay un segundo problema lógico, L2, que constituye una generalización de L1, a partir del
cual se obtiene sustituyendo sencillamente las palabras “es verdadera” por “es verdadera o
falsa”:
L2: ¿Se puede justificar la pretensión de que una teoría explicativa universal sea verdadera o
falsa mediante “razones empíricas”? Es decir, suponiendo que los enunciados contrastadores
sean verdaderos, ¿pueden ellos justificar la pretensión de que una teoría universal sea
verdadera o la de que sea falsa?
A esto respondo positivamente: Si, suponiendo que los enunciados contrastadores sean
verdaderos, basándose en ellos podemos a veces justificar la pretensión de que una teoría
explicativa universal es falsa. La importancia de esta respuesta se ve cuando reflexionamos
sobre la situación problemática que da lugar al problema de la inducción. Pienso en la situación
que se nos presenta cuando tenemos a la vista varias teorías explicativas que se ofrecen como
otras tantas soluciones de algún problema de explicación (por ejemplo, un problema científico)
y cuando debemos, o al menos deseamos, elegir entre ellos. Russell dice que sin resolver el
problema de la inducción resulta imposible decidir entre una (buena) teoría científica y una
(mala) obsesión de un demente. También Hume pensaba en teorías alternativas. “Supóngase
(escribe) que una persona… establece proposiciones a las cuales no puedo asentir… que la
plata es más fusible que el plomo o el mercurio más pesado que el oro…”. Esta situación
problemática de elegir entre varias teorías sugiere un tercer modo de formular el problema de
la inducción:
L3: Dadas varias teorías universales rivales, ¿es posible preferir unas a otras por lo que respecta
a su verdad o falsedad, justificándolo mediante “razones empíricas”?
La respuesta a L3 es obvia a la luz de la solución dada a L2: Sí, a veces se puede, si hay suerte, ya
que puede ocurrir que nuestros enunciados contrastadores refuten algunas -aunque no todas-
de las teorías rivales y, puesto que buscamos una teoría verdadera, preferiremos aquella cuya
falsedad no haya sido demostrada.

Comentarios a mi solución del problema lógico

(1) Según mis reformulaciones, la cuestión central del problema lógico de la inducción es la
validez (verdad o falsedad) de las leyes universales por respeto a ciertos enunciados “dados”.
Dejo de lado el problema de “cómo determinamos la verdad o la falsedad de los enunciados
contrastadores”, es decir, de las descripciones singulares de sucesos observables. Sugiero que
este último problema no debe ser considerado como parte del problema de la inducción,
puesto que la pregunta de Hume es si se puede o no justificar el paso de los “casos”
experimentados a los no experimentados. Que yo sepa, ni Hume ni ninguna de las demás
personas que se han ocupado del tema antes que yo, ha pasado de estas preguntas a las
siguientes: ¿Podemos dar por supuestos los “casos experimentados”? ¿Son realmente previos a
las teorías? Aunque mi solución al problema de la inducción me hizo ver la existencia de otros
problemas, estas preguntas van más allá del problema original. (Esto es obvio si consideramos
qué tipo de cosas buscaban los filósofos cuando intentaban resolver el problema de la
inducción: si se pudiera encontrar un “principio de inducción” que permitiese derivar leyes
universales partiendo de enunciados singulares y si se pudiera sostener su pretensión de
verdad, entonces el problema de la inducción podría considerarse resuelto).
(2) L1 constituye un intento de traducir el problema de Hume a un modo objetivo de hablar. La
única diferencia es que Hume habla de casos (singulares) futuros de los que no tenemos
experiencia -es decir, de expectativas- mientras que L1 habla de leyes universales o teorías.
Propongo este cambio al menos por tres razones. En primer lugar, desde un punto de vista
lógico, “casos” hace referencia a una ley universal (o al menos a una función de enunciado que
puede ser universalizada). En segundo lugar, nuestro método usual de razonar de unos “casos”
a otros se lleva a cabo con la ayuda de teorías universales. De este modo, pasamos del
problema de Hume al problema de la validez de las teorías universales (su verdad o falsedad).
En tercer lugar, dese conectar, como hace Russell, el problema de la inducción con las leyes
universales o teorías científicas.
(3) Mi respuesta negativa a L1 ha de interpretarse en el sentido de que debemos considerar
todas las leyes o teorías como hipótesis o conjeturas: es decir, como suposiciones.
Strawson escribe: “Si hay un problema de la inducción y Hume fue quien lo planteó, hay que
añadir que fue él quien lo resolvió”. Alude con esto a la respuesta positiva que dio Hume a Hps,
respuesta que Strawson parece aceptar describiéndola como sigue: “La Naturaleza nos fuerza a
aceptar los cánones básicos (de la inducción). La razón es, y debe ser, la esclava de las
pasiones”.
Está claro que la “inducción” -en el sentido de una respuesta positiva a HL o L1- es
inductivamente inválida e incluso paradógica, ya que una respuesta positiva a L1, implica que
nuestra explicación del mundo es aproximadamente verdadera (con lo cual estoy de acuerdo, a
pesar de mi respuesta negativa a L1). De ahí se sigue que somo un tipo de animales muy
inteligentes, situados precariamente en un medio que difiere de cualquier otro lugar del
universo: animales que se esfuerzan valerosamente en descubrir por cualquier medio las
verdaderas regularidades que rigen el universo y, por tanto, nuestro medio. Mas es obvio que,
sea cual sea el método que usemos, la probabilidad de encontrar regularidades verdaderas es
escasa, y nuestras teorías estarán afectadas por errores en los que no nos impedirá incurrir
ningún enigmático “canon de inducción”, sea o no básico. Esto es precisamente lo que dice mi
respuesta negativa a L1. Por tanto, la respuesta positiva debe ser falsa, puesto que entraña su
propia negación.
Quien quiera sacar la moraleja de esta historia deberá concluir que la razón crítica es mejor
que la pasión, sobre todo en cuestiones de tipo lógico. Con todo, estoy dispuesto a admitir que
no se puede hacer nada sin una pequeña dosis de pasión.
(4) L2 no es más que una generalización de L1, y L3 no es sino una formulación alternativa de L2.
(5) Mi respuesta a L2 y L3 suministra una respuesta clara a las preguntas de Russell. Puedo decir
perfectamente que al menos algunos de los desvaríos de los lunáticos se pueden refutar
mediante la experiencia, es decir, mediante enunciados contrastadores. (Otros pueden no ser
contrastables, distinguiéndose así de las teorías científicas, lo cual plantea el problema de la
demarcación). (Por “el problema de la demarcación” entiendo el problema de dar con un
criterio mediante el cual podamos distinguir los enunciados de la ciencia de los enunciados no
empíricos. Mi solución consiste en decir que un enunciado es empírico si hay conjunciones
(finitas) de enunciados empíricos singulares (“enunciados básicos” o “enunciados
contrastadores”) que lo contradigan. De este “principio de demarcación” se sigue la
consecuencia de que un enunciado puramente existencial aislado (por ejemplo, “En algún
momento hay en alguna parte del mundo una serpiente marina”) no es un enunciado empírico,
aunque naturalmente, puede contribuir a plantear nuestra situación problemática empírica).
(6) Lo que es más importante, mi respuesta a L3, está de acuerdo con la siguiente forma -un
tanto débil- del principio del empirismo: Sólo la experiencia puede ayudarnos a decidir sobre la
verdad o falsedad de los enunciados fácticos. Esto es así, ya que, en vista de L1 y de mi
respuesta, podemos determinar al menos la falsedad de las teorías, lo cual se puede hacer
también en vista de la respuesta a L2.
(7) De un modo similar, mi solución no entra en conflicto con los métodos de la ciencia, sino
que nos conduce a los rudimentos de una metodología crítica.
(8) Mi solución no solo ilumina poderosamente el problema psicológico de la inducción, sino
que también dilucida las formulaciones tradicionales del problema y las razones de su
debilidad.
(9) Mis formulaciones y soluciones de L1, L2 y L3 caen de lleno en el campo de la lógica
deductiva. Muestro que, al generalizar el problema de Hume, podemos añadir L2 y L3, lo cual
nos permite formular una respuesta algo más positiva que la que se puede dar a L3. La causa
estriba en la asimetría que existe, desde el punto de vista de la lógica deductiva, entre verificar
y falsar mediante la experiencia. Esto conduce a la distinción exclusivamente lógica entre
hipótesis que han sido refutadas y otras que no lo han sido y a la preferencia por estas últimas,
aunque sólo sea desde un punto de vista teórico según el cual son objetos teóricamente más
interesantes para ulteriores contrastaciones.

La preferencia entre teorías y búsqueda de la verdad

La respuesta negativa a L1 significa que todas nuestras teorías no son más que suposiciones,
conjeturas o hipótesis. Una vez aceptado plenamente este resultado puramente lógico, surge la
cuestión de si puede haber argumentos puramente racionales (que pueden ser empíricos) para
preferir unas conjeturas o hipótesis a otras. Hay varias maneras de considerar la cuestión.
Distinguiré el punto de vista del teórico -el que busca la verdad, en especial teorías explicativas
verdaderas- del punto de vista del hombre de acción. Es decir, distinguiré la preferencia teórica
y la preferencia pragmática.
Supondré que el teórico se preocupa por la verdad y, específicamente, por encontrar teorías
verdaderas. Mas, una vez asimilado el hecho de que nunca podemos justificar empíricamente
-es decir, por medio de enunciados contrastadores- la tesis de que una teoría es verdadera y
que, por tanto, nos enfrentamos a lo sumo con el problema de preferir tentativamente unas
suposiciones a otras, entonces, desde el punto de vista de quien busca teorías verdaderas,
debemos atender a las preguntas: ¿Qué criterios de preferencia hemos de adoptar? ¿Hay
teorías “mejores” que otras? Estas preguntas dan pie a las siguientes consideraciones:

(1) Está claro que el problema de la preferencia surgirá fundamentalmente -tal vez
exclusivamente- en relación con conjuntos de teorías rivales; es decir, teorías que se ofrecen
como soluciones a los mismos problemas.
(2) El teórico que se interesa por la verdad, debe interesarse también por la falsedad, pues
descubrir que un enunciado es falso equivale a descubrir que su negación es verdadera. Por
tanto, la refutación de una teoría posee siempre un interés teórico, pero la negación de una
teoría explicativa no es, a su vez, una teoría explicativa (ni posee, por regla general, el “carácter
empírico” del enunciado contrastador del cual se deriva). Por muy interesante que sea, no
satisface el interés que tiene el teórico por encontrar teorías explicativas verdaderas.
(3) Si el teórico persigue este fin, entonces descubrir dónde falla una teoría, además de
suministrar una información teóricamente interesante, plantea un nuevo problema importante
para una nueva teoría explicativa. Toda teoría nueva no sólo tiene que tener éxito donde lo
tenía la teoría anterior refutada, sino que debe de tener éxito también donde ésta fallaba: es
decir, en el punto en que fue refutada. Si la nueva teoría tiene éxito en ambos casos, será en
cierta medida más afortunada y, por tanto, “mejor” que la vieja.
(4) Además, suponiendo que en el momento t la nueva teoría no se vea refutada por una
nueva contrastación, también en otro sentido será “mejor” que la teoría refutada. En efecto,
no sólo explicará todo lo que explicaba la teoría refutada más otras cosas, sino que además
será considerada como posiblemente verdadera, ya que en el momento t no se ha mostrado su
falsedad.
(5) No obstante, el teórico apreciará tal teoría, no sólo por su éxito y su posible verdad, sino
también por su posible falsedad. Es interesante como objeto de subsiguientes contrastaciones,
es decir, de nuevos intentos de refutación que, de tener éxito, no sólo establecerán una nueva
negación de la teoría, sino también un nuevo problema teórico para la próxima teoría.
Podemos resumir los puntos (1)-(5) del modo siguiente: Por diversas razones, el teórico se
interesa por las teorías no refutadas, sobre todo porque algunas de ellas pueden ser
verdaderas. Preferirá una teoría no refutada a una refutada, con tal de que explique los éxitos y
fallos de la teoría refutada.
(6) Pero la teoría nueva puede ser falsa, como toda teoría no refutada. Por eso el teórico
intentará por todos los medios detectar cualquier teoría falsa en el conjunto de las
competidoras no refutadas; intentará “cazarla”. O sea, intentará ingeniar circunstancias o
situaciones en las cuales es probable que falle una teoría dada que no está refutada, si es que
es falsa. Por tanto, se esforzará en construir contrastaciones rigurosas y situaciones cruciales, lo
que puede entrañar la construcción de una ley falsadora, es decir, una ley que pueda ser quizá
de un nivel de universalidad tan bajo que no sea capaz de explicar el éxito de la teoría a
contrastar, aunque sugiera, no obstante, un experimento crucial que refute, según el resultado,
o la teoría a contrastar o la teoría falsadora.
(7) Con este sistema de eliminación podemos dar con una teoría verdadera. Mas a pesar de
que sea verdadera, este método no puede en ningún caso establecer su verdad, ya que el
número de teorías verdaderas posible sigue siendo infinito en cualquier momento y tras
cualquier número de contrastaciones cruciales. (es otro modo de enunciar el resultado
negativo de Hume). El número de teorías efectivamente propuestas será obviamente finito,
pudiendo ocurrir perfectamente que las refutemos todas y que no podamos inventar una
nueva.
Por otra parte, entre las teorías efectivamente propuestas puede haber más de una sin refutar
en un momento T, con lo que no sabremos cuál debemos preferir. Mas si en un momento t hay
una pluralidad de teorías que siguen compitiendo de este modo, el teórico continuará con el
intento de descubrir cómo diseñar experimentos cruciales entre ellas: es decir, experimentos
que puedan falsar y eliminar consiguientemente algunas de las teorías rivales.
(8) El procedimiento descrito puede conducir a un conjunto de teorías que “compitan” en el
sentido de ofrecer soluciones al menos a algunos problemas comunes, aunque cada una de
ellas ofrezca por su parte solución a diversos problemas que no comparte con las otras.
Aunque exigimos que una nueva teoría resuelva los problemas que resolvía su predecesora
más los que no resolvía, siempre puede ocurrir, como es natural, que se propongan dos o más
teorías rivales nuevas, cada una de las cuales satisfaga estas exigencias y además resuelva
algunos problemas que las otras no resuelven.
(9) El teórico puede estar especialmente interesado, en un momento t, en descubrir la teoría
más contrastable para someterla a nuevas contrastaciones. Ésta ha de ser al mismo tiempo la
que posea el mayor contenido informativo y el mayor poder explicativo. Será la teoría que más
valga la pena someter a nuevas contrastaciones; resumiendo, “la mejor” de las teorías que
compiten en un momento t. Si pasa las contrastaciones, será también la mejor contrastada de
todas las teorías consideradas hasta el momento, incluyendo todas sus predecesoras.
(10) En lo dicho hasta aquí sobre “la mejor teoría” se ha supuesto que una buena teoría no es
ad hoc. La idea de carácter-ad-hoc y su opuesta, que tal vez se pueda denominar “audacia”, son
importantes. las explicaciones ad hoc son las que no son contrastables independientemente;
esto es, independientemente del efecto a explicar. Se formulan para un problema concreto, por
lo que tienen escaso interés teórico. El problema de los grados de independencia de las
contrastaciones, es un problema interesante conectado con los de simplicidad y profundidad.
Es necesario referirlo, y hacerlo depender del problema de la explicación y de las situaciones
problemáticas discutidas, ya que todas estas ideas son importantes para los grados de
“bondad” de las teorías rivales. Además, el grado de audacia de una teoría también depende
de las relaciones que mantiene con sus predecesoras. Lo más interesante es que he conseguido
dar un criterio objetivo para grados muy altos de audacia o carácter-no-ad-hoc. Ocurre que la
nueva teoría, aunque debe explicar lo que explicaba la antigua, la corrige hasta el punto de
que la contradice efectivamente: contiene la vieja teoría, aunque sólo como aproximación. En
este sentido, la teoría de Newton contradice las teorías de Kepler y de Galileo - si bien las
explica por el hecho de contenerlas como aproximaciones- y la teoría de Einstein contradice a
la de Newton, que explica de un modo similar al contenerla como una aproximación.
(11) El método descrito puede denominarse método crítico. Es un método de ensayo y
supresión de errores, de proponer teorías y someterlas a las contrastaciones más rigurosas que
podamos diseñar. Si, mediante suposiciones limitadoras, sólo consideramos posibles un
número finito de teorías rivales, el método puede llevarnos a señalar la teoría verdadera por
eliminación de las competidoras. Normalmente -es decir, cuando el número de teorías posible
es infinito- ni éste ni cualquier otro método pueden asegurar qué teoría es la verdadera.
Aunque no concluyente, el método sigue siendo aplicable.
(12) El enriquecimiento de los problemas mediante la refutación de teorías falsas y las
exigencias formuladas en (3), aseguran que la predecesora de cada una de las nuevas teorías
sea- desde el punto de vista de ésta- una aproximación a esta nueva teoría. Naturalmente,
nada asegura que hayamos de encontrar para cada teoría falsada una sucesora “mejor” o una
aproximación mejor que satisfaga estas exigencias. Nada asegura que podamos progresar
hacia teorías mejores.
(13) Aquí hay que añadir dos cosas. En primer lugar, lo dicho hasta ahora pertenece, como si
dijéramos, a la lógica puramente deductiva, la lógica en la que se planteó L1, L2 y L3. Sin
embargo, al intentar su aplicación a las situaciones prácticas que surgen en la ciencia,
chocamos con problemas de distinta índole por ejemplo, las relaciones entre enunciados
contrastadores y teorías puede que no sean tan precisas como aquí suponemos; incluso es
posible criticar los enunciados contrastadores mismos. Se trata del tipo de problemas que
siempre surgen cuando deseamos aplicar la lógica pura a situaciones reales. En relación con la
ciencia, conduce a los que he llamado reglas metodológicas, reglas de discusión crítica. En
segundo lugar, puede considerarse que estas reglas están sometidas al objetivo general de la
discusión racional que consiste en acercarse a la verdad lo más posible.

Corroboración: los méritos de la improbabilidad

(1) Mi teoría de la preferencia nada tiene que ver con la preferencia por las hipótesis “más
probables”. Por el contrario, he mostrado que la contrastabilidad de una teoría aumenta y
disminuye con su contenido informativo y, por tanto, con su improbabilidad (en el sentido del
cálculo de probabilidades). Así, lo más frecuente será que la hipótesis “mejor” o “preferible”
sea la más improbable. Con todo es un error decir que he propuesto un “criterio de
improbabilidad para la elección de hipótesis científicas”; no sólo no tengo un “criterio” general,
sino que muy a menudo sucede que soy incapaz de preferir la hipótesis lógicamente “mejor” o
más improbable, puesto que alguien ha conseguido refutarla experimentalmente. Como es
natural, muchos han considerado que este resultado es molesto, pero mis argumentos
fundamentales son sencillísimos (contenido = improbabilidad).
(2) Introduje originalmente la idea de corroboración o “grado de corroboración” al objeto de
mostrar claramente el carácter absurdo de toda teoría probabilística de la preferencia (y, por
tanto, de toda teoría probabilística de la inducción). Por grado de corroboración de una teoría
entiendo un informe conciso que evalúe el estado (en cierto momento t) de la discusión crítica
de una teoría respecto al modo en que resuelve sus problemas, su grado de contrastabilidad, el
rigor de las contrastaciones a que ha sido sometida y cómo ha salido de ellas. La corroboración
(o grado de corroboración) es, por tanto, un informe evaluativo de su rendimiento pasado. Es
esencialmente comparativo, como la preferencia: en general sólo puede decirse que una teoría
A posee un grado de corroboración más elevado (o más bajo) que su rival B -a la luz de la
discusión crítica que utiliza las contrastaciones- hasta un momento dado, t. Al ser un informe
del rendimiento pasado, alude únicamente a una situación que puede llevar a preferir unas
teorías a otras, pero no dice nada de su rendimiento futuro ni de su “fiabilidad”.
El propósito fundamental de las fórmulas que propuse para definir el grado de corroboración
era mostrar que en muchos casos es preferible la hipótesis más improbable (en el sentido del
cálculo de probabilidades), señalando claramente en qué casos se puede decir esto y en cuáles
no. Puedo mostrar así que la preferibilidad no puede ser una probabilidad en el sentido del
cálculo de probabilidades. Naturalmente, se puede llamar preferible a la teoría más
“probable”: no importan las palabras con tal de que no nos dejemos engañar por ellas.
Resumiendo: A veces podemos decir de dos teorías rivales, A y B, que A es preferible, o está
mejor corroborada, que la teoría B, a la luz del estado de la discusión crítica en el momento t y
de la evidencia empírica (enunciados contrastadores) que tengamos a mano para la discusión.
Obviamente, el grado de corroboración en el momento t (que constituye un enunciado acerca
de la preferibilidad en el momento t) no dice nada sobre el futuro -por ejemplo, sobre el grado
de corroboración en un momento posterior a t. Exactamente, no es más que un informe sobre
el estado, en el momento t, de la discusión acerca de la preferibilidad lógica y empírica de las
teorías rivales.
(3) Ha sido mal interpretado el sentido en que yo empleaba la corroboración como índice del
rendimiento futuro de una teoría: “en lugar de discutir la “probabilidad” de una hipótesis
deberíamos tratar de averiguar qué contrastaciones, qué pruebas ha soportado; esto es,
tendríamos que intentar la averiguación de hasta qué punto ha sido capaz de demostrar que es
apta para sobrevivir -y ello por haber salido indemne de las contrastaciones. En resumen,
deberíamos disponernos a averiguar en qué medida está “corroborada””. Algunas personas
piensan que la expresión “demostrar que es apta para sobrevivir” muestra que hablo aquí de la
aptitud para sobrevivir en el futuro, para salir indemne de contrastaciones futuras. No he sido
yo quien ha sacado de quicio la metáfora darwinista. Nadie supone que una especie que ha
sobrevivido en el pasado vaya a sobrevivir en el futuro: todas las especies que no han logrado
sobrevivir en un momento determinado t han sobrevivido hasta el momento t. sería absurdo
sugerir que la supervivencia darwinista implica de algún modo la expectativa de que continuará
sobreviviendo toda especie que haya sobrevivido hasta este momento.
(4) Tal vez sea útil añadir aquí algo sobre el grado de corroboración de un enunciado s que
pertenece o se deriva lógicamente de una teoría T, aunque sea lógicamente mucho más débil
que ella. Tal enunciado s tendrá menos contenido informativo que la teoría T, lo que significa
que s, y el sistema deductivo S de todos aquellos enunciados que se siguen de s, será menos
contrastable y corroborable que T. pero si T ha sido bien contrastada, entonces podemos decir
que su alto grado de corroboración se aplica a todos los enunciados implicados por ella y, por
tanto, a s y S, aunque s nunca pudiese alcanzar por sí mismo un grado de corroboración tan
alto, debido a su baja corroborabilidad. Esta regla puede sostenerse considerando simplemente
que el grado de corroboración es un medio de enunciar una preferencia por lo que respecta a
la verdad. Así pues, si preferimos T por lo que respecta a su pretensión de verdad, entonces
debemos preferirla junto con todas sus consecuencias, ya que, si T es verdadera, deben serlo
también todas sus consecuencias, aunque separadamente puedan corroborarse peor. Afirmo,
por tanto, que con la corroboración de la teoría de Newton y la descripción de la tierra como
un planeta en rotación, el grado de corroboración del enunciado s, “El sol sale en Roma cada
veinticuatro horas”, ha aumentado considerablemente. La razón estriba en que s, por sí mismo,
no puede contrastarse muy bien. Ahora bien, puesto que la teoría de Newton y la de la
rotación terrestre pueden contrastarse bien, entonces, si son verdaderas, s también lo será. Un
enunciado s, derivable de una teoría T bien contrastada, tiene el mismo grado de
corroboración que T, en tanto en cuanto se considera parte de T; y si s no es derivable de T,
sino de la conjunción de dos teorías, T1 y T2, en cuanto parte de dos teorías, tendrá el mismo
grado de corroboración que la peor contrastada de ambas. Sin embargo, en sí mismo s puede
tener un grado de corroboración muy bajo.
(5) La diferencia fundamental entre mi enfoque y el enfoque que he denominado hace tiempo
“inductivista” consiste en que yo pongo el acento en los argumentos negativos, tales como
casos negativos o contra-ejemplos, refutaciones e intentos de refutación -brevemente, crítica-,
mientras que el inductivista pone el acento en los “casos positivos de los que saca inferencias
no-demostrativas” que pretende que garanticen la “falibilidad” de las conclusiones de estas
inferencias. Para mí, lo único que puede ser “positivo” en el conocimiento científico sólo es
positivo en tanto en cuando ciertas teorías son, en un momento dado, preferidas a otras a la
luz de nuestra discusión crítica consistente en intentos de refutación que incluye
contrastaciones empíricas. Por tanto, incluso lo que puede ser considerado “positivo”, lo es
sólo por respecto a métodos negativos. Este enfoque negativo clarifica muchas cosas; por
ejemplo, las dificultades que se encuentran al explicar satisfactoriamente lo que constituye un
“caso positivo” o un “caso favorable” de una ley.

Preferencia pragmática

El teórico puede no tener ninguna preferencia sobre la “mejor” teoría, es decir, la más
contrastable y la mejor contrastada; puede sentirse desanimado por la solución “escéptica”,
mía y de Hume, a los problemas HL y L1; puede alegar que si no somos capaces de asegurar el
descubrimiento de cuál de las teorías rivales es la verdadera, no le interesa para nada
semejante método -ni siquiera si el método hace razonablemente cierto que si hubiese una
teoría verdadera entre las propuestas, estaría entre las supervivientes, preferidas o
corroboradas. Sin embargo, puede ser que un teórico “puro” más entusiasta o más curioso se
anime con nuestro análisis a proponer una y otra vez nuevas teorías rivales, confiando en que
tal vez una de ellas sea verdadera- aunque nunca seamos capaces de asegurar que alguna de
ellas sea verdadera. El teórico puro tiene, pues, ante sí más de una vía de acción: eligirá un
método como el de ensayo y supresión de errores sólo si su curiosidad supera su frustración
por la inevitable incertidumbre y deficiencia de todos nuestros intentos.
El caso es distinto si lo consideramos como hombre de acción práctica, ya que éste ha de elegir
siempre entre algunas alternativas más o menos concretas, puesto que incluso la inacción es
un tipo de acción. Más toda acción presupone un conjunto de expectativas; es decir, de teorías
sobre el mundo. ¿Qué teoría eligirá el hombre de acción? ¿Se puede hablar de una elección
racional? Esto nos llev a los problemas pragmáticos de la inducción:

Pr1: ¿De qué teoría hemos de fiarnos desde un punto de vista racional, para la actividad
práctica?
Pr2: ¿Qué teoría hemos de preferir, desde un punto de vista racional, para la actividad práctica?

Mi respuesta a Pr1 es la siguiente: desde un punto de vista racional no podemos “fiarnos” de


ninguna teoría, ya que no se ha demostrado, ni se puede demostrar, que una teoría sea
verdadera.
Mi respuesta a Pr2 es: sin embargo, debemos preferir la teoría mejor contrastada como base de
acción.
En otras palabras, no hay “confianza absoluta”, pero puesto que hemos de elegir, será
“racional” elegir la teoría mejor contrastada. Será “racional” en el sentido más obvio de la
palabra que conozco: la teoría mejor contrastada es la que a la luz de la discusión crítica parece
mejor, por el momento, y no conozco nada más “racional” que una discusión crítica bien
llevada. Evidentemente, al elegir la teoría mejor contrastada como base de acción, “confiamos”
en ella en algún sentido de la palabra. Por tanto, en cierto sentido, incluso se la puede describir
como la más “fiable” de las teorías utilizables. Sin embargo, esto no quiere decir que sea
“fiable”, al menos en el sentido de que siempre procederemos prudentemente si, incluso en la
acción práctica, prevemos la posibilidad de que nuestras expectativas fallen en algo. No es sólo
esta preocupación trivial lo que debemos derivar de nuestra respuesta negativa a L1 y P1. Por el
contrario, para la plena comprensión del problema -especialmente de lo que he denominado el
problema tradicional- es de la mayor importancia percatarse de que, a pesar de la
“racionalidad” de elegir la teoría mejor contrastada como base de acción, esta elección no es
“racional” en el sentido de apoyarse en buenas razones para esperar que resulte una elección
afortunada en la práctica: no puede haber buenas razones en este sentido, que es en lo que
consiste precisamente el resultado de Hume. (En esto coinciden plenamente nuestras
respuestas a HL, L1 y Pr1). Por el contrario, aunque muchas teorías físicas fuesen verdaderas, es
perfectamente posible que el mundo, tal como lo conocemos con todas sus regularidades
pragmáticamente relevantes, se desintegre completamente el segundo que viene. No obstante,
desde un punto de vista pragmático, es obvio que no vale la pena preocuparse por la mayor
parte de estas posibilidades, ya que nada podemos hacer: están más allá del campo de acción.
(Naturalmente, no incluyo la guerra atómica entre los desastres que están más allá del campo
de acción humana, aunque así lo crea la mayor parte de la gente porque es tan incontrolable
para la mayoría como una acción divina). Todo esto valdría igual, aún cuando pudiésemos estar
seguros de la verdad de nuestras teorías físicas y biológicas. Pero no lo estamos, sino que, por
el contrario, poseemos razones para sospechar incluso de las mejores, lo cual añade,
naturalmente, nuevos infinitos a las infinitas posibilidades de desastre. Este tipo de
consideraciones son las que hacen tan importantes mi puesta negativa y la de Hume, ya que
ahora podemos ver con toda claridad por qué hemos de guardarnos de que nuestra teoría del
conocimiento pruebe demasiado. Para decirlo con más exactitud, ninguna teoría del
conocimiento puede pretender explicar por qué tienen éxito nuestros intentos de explicar las
cosas. Aunque supongamos que hemos tenido éxito -que nuestras teorías físicas son
verdaderas- nuestra cosmología puede enseñarnos cuán infinitamente improbable es este
éxito: nuestras teorías nos muestran que el mundo está casi completamente vacío y que el
espacio vacío está lleno de radiaciones caóticas. Por otro lado, la mayoría de las partes no
vacías están ocupadas por polvo caótico, por gases o por estrellas a altísimas temperaturas -en
condiciones que parecen impedir la aplicación de cualquier método para adquirir localmente
un conocimiento físico.
Resumiendo, hay muchos mundo actuales y posibles en los que fracasará la búsqueda de
regularidades y conocimiento. Incluso en el mundo, tal y como lo conocemos por las ciencias,
la presencia de condiciones en las que pueda surgir -y prosperar- la vida y la búsqueda del
conocimiento parece ser casi infinitamente improbable. Da la impresión, además, de que,
aunque apareciesen tales condiciones en algún momento, estarían abocadas una vez más a la
desaparición tras un período muy breve, cosmológicamente hablando.

Bases de mi replanteamiento del problema psicológico de la inducción de Hume

Históricamente hablando, descubrí la nueva solución al problema psicológico de la inducción


de Hume antes que la solución al problema lógico: la inducción -la formación de creencia por
repetición- es un mito. Primero en animales y niños y luego en adultos observé la necesidad
inmensamente poderosa de regularidades -la necesidad que les hace buscar regularidades,
que les hace verlas incluso donde no las hay, que les hace aferrarse dogmáticamente a sus
expectativas, y que los hace desgraciados si se derrumban ciertas regularidades supuestas,
pudiendo llevarlos a la desesperación y al borde de la locura. Cuando Kant dijo que nuestro
intelecto impone sus leyes a la naturaleza, estaba en lo cierto- salvo que no se percató de cuán
a menudo fracasa: las regularidades que intentamos imponer son a priori psicológicamente,
pero no hay la menor razón para suponer que sean válidas a priori, como pensaba Kant. La
necesidad que lleva a intentar imponer tales regularidades al medio es claramente innata,
basándose en impulsos o instintos. Existe una necesidad general de que el mundo se conforme
a nuestras expectativas, aunque hay muchas otras necesidades más específicas como son la
necesidad de respuesta social regular o la necesidad de aprender un lenguaje con reglas para
los enunciados descriptivos (o de otro tipo). Esta situación me hizo concluir, en primer lugar,
que las expectativas pueden surgir sin, o antes de, la repetición y, en segundo lugar, me
condujo a un análisis lógico que mostraba que no podían surgir de otra manera, puesto que la
repetición presupone la similitud, que a su vez presupone un punto de vista -una teoría o una
expectativa. Por tanto, resolví que por razones lógicas no podía ser verdadera la teoría
inductiva de Hume sobre la formación de creencias, lo cual me hizo ver que había que
transferir las consideraciones lógicas al terreno psicológico. Esto, a su vez, me llevó a la ulterior
conjetura heurística de que, por regla general, lo que vale en lógica vale también en psicología,
suponiendo que se transfiera adecuadamente. (Este principio heurístico es el que ahora
denomino “principio de transferencia”). Imagino que fue en gran medida este resultado el que
me hizo abandonar la psicología en favor de la lógica del descubrimiento.
Ahora bien, si transferimos a la psicología humana y animal este método de preferencia que
deriva de nuestra solución a L3, llegamos claramente al método de sobra conocido de ensayo y
supresión de errores: los diversos ensayos corresponden a la formación de hipótesis rivales y la
supresión de errores, a la supresión o refutación de teorías mediante contrastaciones. Esto me
condujo a la siguiente formulación: la diferencia fundamental entre Einstein y una ameba
estriba en que Einstein busca conscientemente la supresión de errores. Intenta matar sus
teorías, criticándolas conscientemente, razón por la cual trata de formularlas no con vaguedad,
sino con precisión. Mas la ameba no puede ser crítica frente a sus expectativas o hipótesis, no
puede plantarles cara: forman parte de ella. (Sólo se puede criticar el conocimiento objetivo, el
subjetivo sólo se puede criticar cuando se hace objetivo, lo cual ocurre cuando decimos lo que
pensamos o, mejor aún, cuando lo escribimos o lo hacemos imprimir). Está claro que el método
de ensayo y supresión de errores se basa, en gran medida, en instintos innatos, algunos de los
cuales están ligados con ese vago fenómeno que algunos filósofos llaman “creencia”.
Hay teóricos del conocimiento que, partiendo de experiencias subjetivas, no logran distinguir el
conocimiento objetivo del subjetivo, lo que les lleva a pensar que la creencia es el género y el
conocimiento una de sus especies. (La diferencia específica vendría dada por la “justificación” o
tal vez por un “criterio de verdad” como la claridad y distinción, la vivacidad o la “razón
suficiente”). Sin embargo, hay otras razones más importantes para desconfiar de la creencia. A
lo que los filósofos ser refieren con la palabra “creencia”, no es a estados momentáneos, sino a
lo que podemos llamar creencias “fijas”, incluso aquellas innumerables expectativas
inconscientes que constituyen nuestro horizonte de expectativa. Hay un gran trecho de éstas a
las hipótesis formuladas y, por tanto, también a los enunciados del tipo “creo que…”
Ahora bien, la mayoría de estos enunciados formulados se pueden considerar críticamente; y
los estados psicológicos que resultan de una consideración crítica me parecen muy distintos
también de una expectativa inconsciente. Por tanto, incluso una creencia “fija” cambia cuando
se la formula, así como después de su formulación. Si el resultado de su consideración crítica es
la “aceptación”, puede dejar de ser una aceptación fanática que amenaza con suprimir las
dudas y escrúpulos para convertirse en esa aceptación provisional dispuesta a la
reconsideración y revisión según nuevos datos y que incluso puede estar ligada a una activa
búsqueda de refutaciones. Estas distinciones entre diversas “creencias” no tienen interés
alguno para mi teoría objetivista del conocimiento, pero deberían interesar a quien se tome en
serio el problema psicológico de la inducción -cosa que yo no hago.

Replanteamiento del problema psicológico de la inducción

Por las razones expuestas, no considero que el problema psicológico de la inducción forme
parte de mi propia teoría (objetivista) del conocimiento. Con todo, creo que el principio de
transferencia sugiere los siguientes problemas y respuestas.

Ps1: Si consideramos críticamente una teoría desde el punto de vista de los elementos de juicio
suficientes en su favor más bien que desde un punto de vista pragmático, ¿tenemos siempre
un sentimiento de completa seguridad o certeza acerca de su verdad, incluso por lo que se
refiere a las teorías mejor contrastadas, como que el sol sale todos los días?
Creo que la respuesta debe ser: No. Creo que el sentimiento de certeza -la creencia fuerte- que
Hume intentaba explicar, es una creencia pragmática: algo estrechamente relacionado con la
acción y la elección entre alternativas o, incluso, con la necesidad y expectativa de
regularidades. Pero si suponemos que estamos en disposición de reflexionar sobre la evidencia
y lo que nos permite afirmar, entonces hemos de admitir que, después de todo, el sol puede no
salir mañana en Londres -por ejemplo-, porque puede explotar dentro de media hora, con lo
que habrá mañana. Naturalmente, no hemos de tomar “seriamente” -es decir,
pragmáticamente- esta posibilidad, puesto que no sugiere ninguna acción posible. Debemos
considerar nuestras creencias pragmáticas que pueden ser muy fuertes. Preguntamos:

Ps2: ¿Esas “fuertes creencias pragmáticas” que todos mantenemos, como es la creencia en que
habrá un mañana, son el resultado irracional de la repetición?

Mi respuesta es: No. La teoría de la repetición es, en todos los sentidos, insostenible. Estas
creencias son en parte innatas, en parte modificaciones de creencias innatas que surgen del
método de ensayo y supresión de errores. Mas este método es perfectamente “racional”, ya
que corresponde precisamente a ese método de preferencia cuya racionalidad hemos
discutido. Más explícitamente, una creencia pragmática en los resultados de la ciencia no es
irracional, ya que nada hay más “racional” que el método de la discusión crítica que es el
método de la ciencia. Aunque fuese irracional aceptar como cierto cualquiera de sus
resultados, no hay nada “mejor” a la hora de actuar en la práctica: no hay otro método
alternativo que pueda considerarse más racional.
El problema tradicional de la inducción y la invalidez de todos los principios o reglas
de inducción

En el problema filosófico de la inducción, se alude a lo que ocurre si aceptamos el punto de


vista del sentido común acerca de la inducción por repetición puesto en entredicho por Hume,
sin tomar la crítica con la debida seriedad.
El esquema básico del problema tradicional se puede plantear de varias maneras; por ejemplo:

Tr1: ¿Cómo se puede justificar la inducción (a pesar de Hume)?


Tr2: ¿Cómo se puede justificar un principio de inducción (es decir, un principio que justifique la
inducción y que no sea lógico)?
Tr3: ¿Cómo se puede justificar un principio de inducción, del tipo “el futuro será como el
pasado” o, tal vez, el llamado “principio de uniformidad de la naturaleza”?

Considero que el problema kantiano, “¿Cómo pueden ser válidos a priori los enunciados
sintéticos?”, constituye un intento de generalizar Tr1 o Tr2. Por eso tengo a Russell por kantiano,
ya que en algunas de sus fases intentó solucionar Tr2 mediante una justificación a priori. En los
Problems of Philosophy, por ejemplo, Russell formuló Tr2 como sigue “…¿qué clase de creencias
generales serán suficientes, si fueran verdaderas, para justificar el juicio según el cual el sol
saldrá mañana…?”. Para mí, todos estos problemas están mal formulados. Como ocurre con las
versiones probabilísticas del tipo del principio de inducción de Thomas Reid: “lo que ha de ser,
será probablemente como lo que ha sido en circunstancias similares”. Sus autores no han
tomado con suficiente serenidad la crítica lógica de Hume y nunca toman en serio la
posibilidad de que podamos, y debamos, arreglárnoslas sin la inducción por repetición, cosa
que de hecho ocurre. Me parece que todas las objeciones que conozco a mi teoría se formulan
bajo el punto de vista de si ha resuelto o no el problema tradicional de la inducción -es decir, si
he justificado o no la inferencia inductiva. Sin embargo, hay que rechazar las formulaciones
tradicionales del principio de inducción porque suponen, no sólo que nuestra busca de
conocimiento ha tenido éxito, sino también que hemos de poder explicitar por qué. No
obstante, aun suponiendo que nuestra busca de conocimiento ha tenido éxito hasta ahora y
que sabemos algo acerca del universo, este éxito es milagrosamente improbable y, por ende,
inexplicable, ya que apelar a una serie ilimitada de accidentes improbables no constituye una
explicación. (Supongo que lo único que podemos hacer es investigar la casi increíble historia
evolutiva de estos accidentes desde la formación de los elementos hasta la de los organismos).
Una vez hecho esto, se verá que es totalmente obvia, no sólo la tesis HL (y, por tanto, a L1 y Pr1),
sino también la invalidez de cualquier “principio de inducción”.
La idea de un principio de inducción es la de que hay un enunciado -que ha de considerarse
como un principio metafísico válido a priori, probable o, tal vez, como una mera conjetura-
que, de ser verdadero, suministrará buenas razones para que confiemos en regularidades. Si
por “confianza” entendemos simplemente confianza pragmática en la racionalidad de nuestras
preferencias teóricas, en el sentido de Pr2, entonces será claro que no necesitamos ningún
principio de inducción: no precisamos confiar en regularidades -es decir, en la verdad de las
teorías- para justificar esta preferencia. Si, por el contrario, se alude a la “confianza” en el
sentido de Pr1, entonces tal principio de inducción será sencillamente falso. Es más, incluso
será paradójico en el siguiente sentido: nos permitiría confiar en la ciencia, cuando ésta nos
enseña hoy día que sólo en condiciones muy especiales e improbables pueden tener lugar
situaciones que permitan observar regularidades o casos de regularidades. De hecho, la ciencia
nos enseña que tales condiciones difícilmente aparecen en alguna parte del universo y, si
aparecen (digamos, en la tierra), será durante períodos muy cortos desde un punto de vista
cosmológico. Está claro que esta crítica no sólo se aplica a cualquier principio que justifique la
inferencia inductiva basada en la repetición, sino también a cualquier principio que justifique la
“confianza”, en el sentido de Pr1, en el método de ensayo y supresión de errores o en cualquier
otro método posible.

Más allá de los problemas de inducción y demarcación

La solución al problema de la inducción se me ocurrió después de resolver el problema de la


demarcación (demarcación entre ciencia empírica y pseudo-ciencia, especialmente la
metafísica). Sólo tras solucionar el problema de la inducción consideré que el problema de la
demarcación era objetivamente importante. Vi que lo que había que eliminar era la busca de
justificaciones, en el sentido de justificar la pretensión de verdad de una teoría. Todas las
teorías son hipótesis, todas pueden ser rechazadas. Sin embargo, no sugería, ni mucho menos,
que hubiese que eliminar la búsqueda de la verdad: nuestra discusión crítica de las teorías está
presidida por la idea de encontrar una teoría explicativa verdadera (y poderosa). Además,
justificamos nuestras preferencias apelando a la idea de verdad que desempeña el papel de
idea reguladora. Contrastamos para encontrar la verdad, eliminando la falsedad. El que no
podamos suministrar una justificación -o razones suficientes- de nuestras sospechas no quiere
decir que no podamos haber rastreado la verdad; muchas de nuestras hipótesis pueden
perfectamente ser verdaderas. Cuando nos percatamos de que todo conocimiento es
hipotético, rechazamos el “principio de razón suficiente”, en el sentido de “que se puede dar
una razón para toda verdad” (Leibniz) o en el sentido que encontramos en Berkeley y Hume,
quienes sugirieron que hay una razón suficiente para no creer si “no vemos razones
(suficientes) para creer”.
Una vez que resolví el problema de la inducción y me di cuenta de sus estrechas relaciones con
el problema de la demarcación, surgieron nuevos problemas. Ante todo, me di cuenta de que
el problema de la demarcación y mi solución eran un tanto formales y poco realistas: siempre
se pueden evitar las refutaciones empíricas; siempre se puede “inmunizar” una teoría contra la
crítica. (Esta expresión, debida a Hans Albert, debe sustituir a mis expresiones “estratagema
convencionalista” y “giro convencionalista”). Así llegué a la idea de las reglas metodológicas y
de la importancia fundamental del punto de vista crítico; es decir, de un punto de vista que
impida la política de inmunizar nuestras teorías contra la refutación. Al mismo tiempo, constaté
también lo opuesto: el valor de una actitud dogmática; alguien tenía que defender la teoría de
la crítica. El paso siguiente consistió en aplicar el punto de vista crítico a los enunciados
contrastadores, la “base empírica”: subrayé el carácter hipotético de toda observación y de
todo enunciado observacional. Esto me llevó a pensar que todo lenguaje está impregnado de
teoría, lo cual entraña, obviamente, una revisión radical del empirismo. También me hizo
considerar la actitud crítica como característica de la actitud racional; la significación de la
función argumentativa (o crítica) del lenguaje: la idea de la lógica deductiva como órgano de la
crítica y la importancia de la transmisión de la falsedad de la conclusión a las premisas
(corolario de la transmisión de la verdad de las premisas a la conclusión). También hizo que me
percatase de que sólo puede ser objetiva una teoría formulada (en oposición a una teoría
creída), de la idea de que esa formulación u objetividad es lo que posibilita la crítica y,
consecuentemente, de mi teoría de un “tercer mundo”.

Apéndice. Dos notas sobre la inducción y la demarcación

El cubo y el reflector: dos teorías acerca del conocimiento

Crítica del objeto y método de las ciencias naturales. Empezaré haciendo una breve exposición
del punto de vista que voy a examinar y que denominaré "la teoría de la ciencia como un cubo"
(o "la teoría de la mente como un cubo"). El punto de partida de esta teoría viene dado por la
doctrina convincente según la cual es necesario haber tenido percepciones -experiencias de los
sentidos- antes de poder conocer algo acerca del mundo. Se supone que de aquí se sigue que
nuestro conocimiento, nuestra experiencia, consta sea de percepciones acumuladas
(empirismo
ingenuo), sea de percepciones asimiladas, ordenadas y clasificadas (opinión sostenida por
Bacon y, en versión más radical, por Kant).
A partir de ellas y con el transcurso del tiempo, nuestro conocimiento del mundo externo
encajaba con él perfectamente. Según este punto de vista, nuestra mente es como un
receptáculo -una especie de cubo- en el que se acumulan las percepciones y el conocimiento.
Los empiristas estrictos nos recomiendan interferir lo menos posible con este proceso de
acumulación de conocimiento. El conocimiento verdadero es el conocimiento puro no
contaminado por esos prejuicios que tan proclives somos a añadir y mezclar con nuestras
percepciones; sólo éstas constituyen la experiencia pura y simple. El error es el resultado de
estos añadidos, de nuestras perturbaciones e interferencias con el proceso de acumulación de
conocimiento. A esto Kant opone su teoría: niega que las percepciones puedan ser puras y
afirma que la experiencia es el resultado de un proceso de asimilación y transformación -el
resultado de combinar las percepciones de los sentidos con determinados ingredientes puestos
por nuestras mentes. Las percepciones son, como si dijéramos, el material bruto que fluye del
exterior del cubo, donde sufre cierta elaboración (automática) -algo semejante a la digestión o
quizá a la clasificación sistemática-.
No creo que ninguno de estos dos puntos de vista nos suministre un panorama adecuado de lo
que considero el proceso real de adquisición de experiencia, ni del método que se emplea en la
investigación o descubrimiento. Hay que admitir que el punto de vista kantiano podría
interpretarse de modo que quede más próximo a mi opinión que el empirismo puro.
Naturalmente, acepto que la ciencia es imposible sin experiencia. Aunque acepto todo esto,
sostengo que las percepciones no son algo así como el material bruto -como ocurre según la
"teoría del cubo"- a partir del cual construimos la "experiencia" o la "ciencia".

En la ciencia, lo que representa el papel esencial es la observación más bien que la percepción.
Con todo, la observación es un proceso en el que desempeñamos un papel muy activo. Una
observación es una percepción planificada y preparada. No "tenemos" una observación
[aunque podamos “tener” una experiencia sensible], sino que "hacemos" una observación.
Toda observación va precedida por un problema, una hipótesis; en todo caso, por algo que nos
interesa, por algo teórico o especulativo. Por eso las observaciones son siempre selectivas y
presuponen algo así como un principio de selección.
Sabemos que todas las cosas vivas, hasta las más primitivas, reaccionan a determinados
estímulos. Dichas reacciones son específicas; es decir, el número de reacciones posibles es
limitado para cada organismo (y para cada tipo de organismo). Podemos decir que todo
organismo posee cierto conjunto innato de reacciones posibles o cierta disposición a
reaccionar de tal o cual manera. Este conjunto de disposiciones puede cambiar a medida que
aumenta la edad del organismo (quizá en parte bajo la influencia de las impresiones de los
sentidos o las percepciones) o bien puede permanecer constante. No obstante, sea como sea,
podemos suponer que, en un momento dado de su vida, el organismo está dotado de un
conjunto de posibilidades y disposiciones reactivas, conjunto que podemos considerar su
estado interno [en ese momento]. De este estado interno del organismo dependerá el modo
en que reaccione al medio externo. Por eso, estímulos físicos idénticos pueden producir
diferentes reacciones en momentos distintos, y estímulos físicamente distintos pueden dar
lugar a idénticas reacciones. Así pues, sólo diremos que un organismo "aprende de la
experiencia" si sus disposiciones reactivas cambian en el transcurso del tiempo y si podemos
suponer que dichos cambios no dependen de cambios [evolutivos] internos del estado del
organismo, sino que también están en función del estado cambiante del medio exterior. (Se
trata de una condición necesaria, aunque no es suficiente, para poder decir que el organismo
aprende de la experiencia.) En otras palabras, consideramos los procesos mediante los cuales
aprende el organismo como una especie de cambio o modificación en su disposición reactiva y
no, al modo de la teoría del cubo, como una acumulación (ordenada, clasificada o asociada) de
recuerdos dejados por las percepciones pasadas. Estas modificaciones en la disposición
reactiva del organismo, que van a constituir el proceso de aprendizaje, se relacionan
íntimamente con la noción fundamental de "expectativa", así como con la de "expectativa
contrariada". Podemos caracterizar las expectativas como disposiciones reactivas o como
preparativos para reaccionar que se adaptan a [o anticipan] un estado futuro del medio. Esta
caracterización parece más adecuada que la que
describe las expectativas en términos de estados de conciencia, pues sólo tomamos conciencia
de muchas de nuestras expectativas cuando se ven contrariadas al no cumplirse. Un ejemplo
sería encontrar una huella inesperada en nuestro camino: el carácter inesperado de la huella
nos hace conscientes del hecho de que esperábamos encontrarnos con una superficie lisa. Este
contratiempo nos obliga a corregir nuestro sistema de expectativas. El proceso de aprendizaje
consiste en gran medida en correcciones de este tipo; es decir, en la eliminación de
determinadas expectativas [contrariadas].

Ahora bien, una observación presupone siempre la existencia de un sistema de expectativas.


Dichas expectativas pueden formularse en forma interrogativa, de modo que las observaciones
puedan utilizarse para obtener una respuesta que confirme o corrija las expectativas así
formuladas. Las expectativas -es decir, las disposiciones reactivas- preceden a cualquier
observación y, ciertamente, a toda percepción, pues es obvio que ciertas disposiciones o
tendencias reactivas son innatas en todos los organismos, cosa que no ocurre con las
percepciones y observaciones. Aunque las percepciones y, en mayor medida, las observaciones
desempeñen un papel fundamental en el proceso de modificación de nuestras disposiciones o
tendencias reactivas, es evidente que algunas de ellas han de estar presentes previamente si es
que han de ser modificadas. No se ha de pensar, en absoluto, que estas reflexiones biológicas
exijan que yo adopte una posición, conductista. No niego que haya percepciones,
observaciones y otros estados de conciencia; lo único que hago es asignarles una función muy
distinta de la que la teoría del cubo supone que desempeñan.
En cada instante de nuestro desarrollo pre-científico o científico vivimos en el centro de lo que
acostumbro a llamar el "horizonte de expectativas". Con esta expresión, aludo a la suma total
de nuestras expectativas conscientes, subconscientes o incluso, tal vez, enunciadas
explícitamente en un lenguaje. Los diversos horizontes de expectativas difieren,
evidentemente, no sólo por su mayor o menor grado de conciencia, sino también por su
contenido. Con todo, en todos estos casos, el horizonte de expectativas desempeña la función
de una trama de referencia: nuestras experiencias, acciones y observaciones sólo adquieren
significado por su posición en esta trama. Las observaciones, en general, tienen una función
muy peculiar en esta
trama. En ciertas circunstancias incluso pueden destruir la propia trama, si chocan con algunas
expectativas. En tal caso, pueden tener el efecto de una bomba sobre nuestro horizonte de
expectativas. Dicha bomba puede obligamos a reconstruir o reedificar el conjunto de nuestros
horizontes de expectativas; es decir, podemos vemos obligados a corregir las expectativas para
hacer que encajen de nuevo en algo así como un todo consistente. Podemos decir que de este
modo nuestro horizonte de expectativas se eleva y se reconstruye a un nivel superior, con lo
que alcanzamos un nuevo estadio en la evolución de la experiencia; estadio en el que las
expectativas que no han sido alcanzadas por la bomba se incorporan de algún modo en el
horizonte, mientras que las partes dañadas se restauran o reconstruyen. Esto hay que hacerlo
de modo que las observaciones perjudiciales ya no resulten disgregadoras, sino que se integren
con el resto de nuestras expectativas. Si tenemos éxito en la reconstrucción, habremos creado
lo que normalmente se conoce como explicación de esos acontecimientos observados [que han
creado la desintegración, el problema].
Por lo que atañe a la relación temporal entre la observación, por un lado, y el horizonte de
expectativas o teorías por el otro, podemos admitir perfectamente que una nueva explicación
o hipótesis va temporalmente precedida, en general, por aquellas observaciones que han
destruido el horizonte de expectativas precedente y que han sido el estímulo de nuestros
intentos de dar con una nueva explicación. Toda observación va precedida por expectativas o
hipótesis; en especial, por aquellas que componen el horizonte de expectativas que confiere
significado a dichas observaciones; sólo así alcanzan la condición de observaciones reales. El
problema, "¿Qué va primero, la hipótesis (H) o la observación (O)?", recuerda, evidentemente,
aquella otra pregunta famosa: "¿Qué es primero, la gallina (H) o el huevo (O)?" Ambas
cuestiones son solubles. La teoría del cubo afirma que [del mismo modo que una especie de
huevo primitivo (O), un organismo unicelular, precede a la gallina (H)] la observación (O) va
siempre antes que cualquier hipótesis (H), puesto que la teoría del cubo considera que estas
últimas surgen de las observaciones por generalización, asociación o clasificación. Por el
contrario, podemos decir ahora que la hipótesis (expectativa, teoría o como queramos
llamarla) precede a la observación, si bien la observación que refuta determinada hipótesis
puede estimular otra nueva (que es, por tanto, temporalmente posterior). Todo esto se aplica
especialmente a la formación de hipótesis científicas, pues sólo mediante hipótesis
aprendemos qué tipo de observaciones tenemos que hacer, hacia dónde debemos dirigir
nuestra atención y en qué hemos de interesamos. Es, por tanto, la hipótesis la que se convierte
en nuestra guía y nos lleva a nuevos resultados observacionales.
Este es el punto de vista que denomino la "teoría del reflector" (frente a la "teoría del cubo").
[Según la teoría del reflector, las observaciones son secundarias respecto a las hipótesis.] No
obstante, las observaciones desempeñan un papel muy importante como contrastaciones a
que ha de someterse una hipótesis en el curso de nuestro examen [crítico] de la misma. Si la
hipótesis no aprueba el examen, si queda falsada por nuestras observaciones, entonces hemos
de buscar otra nueva. En tal caso, la nueva hipótesis vendrá tras aquellas observaciones que
han llevado a la falsación o rechazo de la vieja hipótesis. Con todo, lo que ha conferido interés y
relevancia a las observaciones y lo que al mismo tiempo ha dado pie a que las
comprendiésemos inmediatamente, es la hipótesis previa, la vieja hipótesis [ahora rechazada].
De este modo, la ciencia se muestra claramente como la continuación directa del trabajo pre-
científico de reparación de nuestros horizontes de expectativas. La ciencia nunca parte de un
punto cero, no puede estar libre de supuestos, pues en todo momento presupone un horizonte
de expectativas -el horizonte de ayer-. La ciencia de hoy se construye sobre la ciencia de ayer
[por lo que es el resultado del reflector de ayer] y, a su vez, la ciencia de ayer se basa en la
ciencia del día anterior. Del mismo modo, las teorías científicas más antiguas se montan sobre
mitos pre-científicos, los cuales se basan en expectativas aún más antiguas.
Ontogenéticamente (es decir, respecto al desarrollo del organismo individual) regresamos de
este modo hasta las expectativas del recién nacido; filogenéticamente (respecto a la evolución
de la estirpe) llegamos al estadio de expectativas de los organismos unicelulares. (No hay aquí
ningún peligro de regresión infinita viciosa -siquiera sea porque todo organismo nace con
algún horizonte de expectativas). Como si dijéramos, de la ameba a Einstein no hay más que un
paso.
Ahora bien, si las ciencias evolucionan de este modo, ¿Cuál es el paso característico que marca
la transición de la pre-ciencia a la ciencia?

Aproximadamente entre el siglo cinco y seis antes de Cristo podemos encontrar en la antigua
Grecia los primeros comienzos de la evolución de algo así como un método científico. Lo que
considero nuevo en la filosofía griega, no consiste tanto en la sustitución de los mitos por algo
más “científico”, sino una nueva actitud frente a los mitos. Esta nueva actitud a que me refiero
es la actitud crítica. En lugar de transmitir dogmáticamente la doctrina [con el único fin de
conservar la tradición auténtica] encontramos una discusión crítica de la misma. La duda y la
crítica existían ya sin duda antes de este estadio. Lo nuevo, sin embargo, reside en que esa
duda y crítica se convierten a su vez en parte integrante de la tradición de la escuela. Una
tradición de orden superior sustituye la tradicional conservación del dogma: en lugar de la
teoría tradicional -en lugar del mito- nos encontramos con la tradición de criticar teorías (que al
principio difícilmente pueden ser algo más que mitos). Sólo en el transcurso de esta discusión
crítica se recaba el testimonio de la observación.

¿Cuál es la misión de la ciencia? La función de la ciencia es en parte teórica -explicación- y en


parte práctica -predicción y aplicación técnica-. Intentaré mostrar que ambas funciones son, en
cierta medida, dos aspectos distintos de una y la misma actividad.
Examinaré en primer lugar la idea de explicación. A veces se oye decir que explicar es reducir lo
desconocido a lo conocido, pero no se nos dice cómo se lleva a cabo tal reducción. En cualquier
caso, no es esa idea de explicación la que se utiliza en la práctica efectiva de la explicación
científica. Si consideramos la historia de la ciencia para ver qué tipos de explicación eran
aceptados en uno u otro momento, encontramos que en la práctica se utilizan conceptos muy
diversos de explicación. En el transcurso del desarrollo histórico de la ciencia se han
considerado aceptables distintos métodos y tipos de explicación, pero todos con un rasgo
común: los diversos métodos explicativos consisten en una deducción lógica, deducción cuya
conclusión es el explicandum -el enunciado de la cosa a explicar- y cuyas premisas constituyen
el explicans [el enunciado de las leyes explicativas y las condiciones]. Los cambios
fundamentales que han tenido lugar en el transcurso de la historia consisten en el silencioso
abandono de ciertas exigencias implícitas relativas al carácter del explicans (que había de ser
captado intuitivamente,
que había de ser autoevidente, etc.); exigencias que resultan ser irreconciliables con algunas
otras cuya significación crucial se hace cada vez más clara a medida que pasa el tiempo; en
particular, la exigencia de contrastabilidad independiente del explicans [que constituye las
premisas y, por ende, el meollo mismo de la explicación].
Por tanto, una explicación es siempre la deducción del explicandum a partir de determinadas
premisas denominadas el explicans. He aquí un ejemplo: Ha aparecido una rata muerta y
queremos saber lo que le ha sucedido. Podemos enunciar el explicandum de la siguiente
manera: "Esta rata ha muerto recientemente". Conocemos con precisión el explicandum, los
hechos están ante nosotros en su fría realidad. Para explicarlo, hemos de elaborar algunas
explicaciones conjeturales o hipotéticas; es decir, explicaciones que introduzcan algo
desconocido o, en todo caso, mucho menos conocido por nosotros. Dicha hipótesis puede ser,
por ejemplo, que la muerte de la rata se ha debido a la ingestión de una considerable dosis de
raticida. Es una buena hipótesis en la medida en que, para empezar, nos permite formular un
explicans a partir del cual se puede deducir el explicandum; en segundo lugar, nos sugiere un
cierto número de contrastaciones independientes -contrastaciones del explicans totalmente
independientes de la verdad o falsedad del explicandum.
Ahora bien, el explicans -que constituye nuestra hipótesis- no consiste solamente en la oración
"Esta rata ha ingerido un cebo con una buena dosis de raticida", pues de este enunciado
aislado no se puede inferir válidamente el explicandum. Por el contrario, hemos de utilizar
como explicans dos tipos distintos de premisas -leyes universales y condiciones iniciales-. En
nuestro caso, la ley universal podría formularse del siguiente modo: "Si una rata ingiere al
menos 0,48 gramos de veneno, morirá en cinco minutos". La condición (singular) inicial (que es
un enunciado singular) podría ser: "Esta rata ha ingerido al menos 0,48 gramos de veneno hace
más de cinco
minutos". De la conjunción de ambas premisas podemos deducir ahora que dicha rata ha
muerto recientemente [esto es, nuestro explicandum].
Todo esto puede parecer bastante obvio; pero tomemos una de mis tesis -a saber, la tesis
según la cual lo que he denominado las "condiciones iniciales" [las condiciones pertenecientes
al caso individual] nunca bastan ellas solas para dar una explicación, sino que también
precisamos siempre una ley general. Tal tesis no es en absoluto obvia; por el contrario, muchas
veces no se admite su verdad. Incluso abrigo la sospecha de que muchos de nosotros
estaríamos dispuestos a aceptar la consideración "esta rata ha ingerido raticida" como
explicación suficiente de su muerte, sin añadir el enunciado explícito de la ley universal relativa
a los efectos del raticida. Mas, supongamos por un momento que viviésemos en un mundo en
el que cualquiera (incluso una rata) que coma una buena ración de ese producto químico
denominado "raticida" se sienta especialmente bien y especialmente dichoso la semana
siguiente y mucho más vigoroso que antes. Si fuese válida una ley de este tipo, ¿podríamos
seguir aceptando el enunciado "Esta rata ha ingerido veneno" como explicación de su muerte?
Evidentemente, no. Por tanto, hemos llegado al resultado, con tanta frecuencia pasado por
alto, de que será incompleta toda explicación que utilice solamente condiciones iniciales
singulares y de que se precisa además al menos una ley universal, aunque en algunos casos
dicha ley es tan conocida que se omite como
si fuese redundante. Resumiendo este punto: hemos descubierto que una explicación es una
deducción del siguiente tipo:

¿Acaso son satisfactorias todas las explicaciones dotadas de esta estructura? ¿Acaso constituye
nuestro ejemplo, pongamos por caso, (el ejemplo en que se explica la muerte de una rata
aludiendo al matarratas) una explicación satisfactoria? No lo sabemos: las contrastaciones
pueden mostrar que la rata, a pesar de haber muerto, no había ingerido un raticida. Si un
amigo se muestra escéptico acerca de nuestra explicación y nos pregunta, "¿Cómo sabes que la
rata ha ingerido un veneno?", es evidente que no bastará con responder, "¿Cómo puedes
dudarlo, no ves que está muerta?" Realmente, todo argumento que podemos aportar en apoyo
de una hipótesis ha de ser distinto e independiente del explicandum. Si sólo podemos aducir
como testimonio en favor de la hipótesis el explicandum mismo, vemos que nuestra explicación
es circular y, por tanto, totalmente insatisfactoria. Si, por otra parte, podemos responder,
"Analiza el contenido de su estómago y encontrarás una dosis de veneno” y si esta predicción
(que es nueva, es decir, no está implicada por el explicandum sólo) muestra ser verdadera,
entonces consideraremos que nuestra explicación es por lo menos una hipótesis bastante
buena.
Pero he de añadir algo más, pues nuestro escéptico amigo puede poner también en tela de
juicio la verdad de la ley universal. Puede decir, por ejemplo, "De acuerdo con que esta rata ha
ingerido un producto químico, ¿pero, por qué había de morir a causa de ello?". Una vez más,
no podemos
responder: "¿Acaso no ves que ha muerto? Esto precisamente nos muestra cuan peligroso es
ingerir dicho producto", ya que esto convertiría una vez más en circular e insatisfactoria
nuestra explicación. Para hacer que sea satisfactoria habremos de someter la ley universal a
contrastaciones independientes del explicandum.
Algunas consideraciones y análisis del esquema general: Empezaré con una observación sobre
las ideas de causa y efecto. El estado de la cuestión descrito por las condiciones iniciales
singulares puede denominarse la "causa" y el descrito por el explicandum, el "efecto". Hemos
de tener siempre presente que estos términos sólo adquieren un significado por respecto a
una teoría o ley universal. Es la teoría o la ley la que constituye el nexo lógico entre la causa y el
efecto, por lo que el enunciado "A es la causa de B" ha de analizarse: "Hay una teoría T que es
contrastable y ha sido contrastada independientemente de la cual, en conjunción con una
descripción, A, de una situación específica independientemente contrastada, podemos deducir
lógicamente una descripción, B, de otra situación específica". (Muchos filósofos, incluso Hume,
han pasado por alto la existencia de un nexo lógico entre "causa" y "efecto" que está
presupuesto en la utilización misma de estos términos).

La tarea de la ciencia no se limita a buscar explicaciones teóricas puras; también tiene aspectos
prácticos: aplicaciones técnicas, así como predicciones. Ambas pueden analizarse mediante el
mismo esquema lógico para analizar la explicación.

(1) La derivación de predicciones. Mientras que en la búsqueda de una explicación el


explicandum aparece dado -o es conocido- y hay que dar con un explicans conveniente, la
derivación de predicciones procede a la inversa. Aquí aparece dada la teoría, o se supone
conocida (tal vez por los libros de texto), así como las condiciones iniciales específicas (se
conocen, o se supone conocidas, por observación). Lo que queda por encontrar son las
consecuencias lógicas: algunas conclusiones lógicas que aún no conocemos por observación.
Esto son las predicciones. En tal caso, la predicción P ocupa el lugar del explicandum E en
nuestro esquema lógico.
(2) Aplicación técnica. Consideremos la tarea de construir un puente que ha de satisfacer
ciertos requisitos prácticos especificados en una lista. Lo dado aquí son las especificaciones, S,
que describen una situación requerida --el puente a construir-. (S son las exigencias del cliente
que son distintas y anteriores a las del arquitecto.) También se nos dan las teorías físicas
relevantes (incluyendo algunas reglas prácticas). Lo que hay que encontrar son ciertas
condiciones iniciales a realizar técnicamente de tal carácter que de ellas, junto con la teoría, se
deduzcan las especificaciones. Así, en este caso, S ocupa el lugar de E en nuestro esquema
lógico. Esto pone de manifiesto cómo, desde un punto de vista lógico, tanto la derivación de
predicciones como la aplicación técnica de teorías científicas pueden considerarse como meras
inversiones del esquema básico de explicación científica.
No obstante, aún no hemos agotado la utilización de nuestro esquema: también puede servir
para analizar el procedimiento de contrastación del explicans. El procedimiento de
contrastación consiste en derivar una predicción, P, del explicans para compararla con una
situación real observable. Si una predicción no está de acuerdo con la situación observada,
entonces se muestra la falsedad del explicans; queda falsado. En tal caso, aún no sabemos si lo
que es falso es la teoría universal o si lo que pasa es que las condiciones iniciales describen una
situación que no corresponde a la situación real, con lo que lo falso son las condiciones
iniciales. [Naturalmente, puede ocurrir perfectamente que sean falsas la teoría y las
condiciones iniciales.] Aunque la falsación de las predicciones muestre que el explicans es falso,
no se puede sostener lo contrario: es incorrecto y muy erróneo creer que podemos interpretar
la "verificación" de la predicción como "verificación" del explicans o de una parte de éste. La
razón estriba en que de un explicans falso se puede deducir, válidamente, con facilidad una
predicción verdadera. Incluso es contundente interpretar toda "verificación" o predicción como
corroboración práctica del explicons: sería más correcto decir que sólo pueden considerarse
corroboraciones del explicons y, por tanto, de la teoría aquellas "verificaciones" o predicciones
"inesperadas” [sin la teoría a examen]. Esto significa que para corroborar una teoría solo se
podrán utilizar aquellas predicciones cuya comparación con las observaciones pueda ser
considerada como un intento serio de contrastar el explicans -un intento serio de refutarlo-.
Podemos decir que las predicciones ["arriesgadas"] de este tipo son "relevantes para la
contrastación de la Teoría". (En cierto sentido, una predicción relevante corresponde a una
contrastación concluyente o “experimetum crucis”, pues para que una predicción P sea
relevante para contrastar una teoría T, ha de ser posible enunciar una predicción P’ que no
contradiga la condición inicial ni el resto de nuestro horizonte de expectativas distinto de T
(suposiciones, teorías, etc.) y que contradiga a P en combinación con las condiciones iniciales y
el resto del horizonte de expectativas. Esto es lo que queremos decir cuando afirmamos que P
(=E) ha de ser “inesperado” (sin T)). Después de todo, es perfectamente obvio que un
aprobado nos dará una idea de las cualidades de un estudiante a condición de que el examen
aprobado sea suficientemente riguroso. También es obvio que se pueden hacer exámenes que
aprueben con facilidad incluso los alumnos más flojos.
Finalmente, aparte de todo esto, nuestro esquema lógico nos permite analizar la diferencia que
hay entre el objeto de las explicaciones teóricas y las históricas. Al teórico le interesa encontrar
y contrastar leyes universales. En el proceso de contrastación recurre a otras leyes de tipos muy
diversos (a algunas de ellas de un modo totalmente inconsciente), así como a diversas
condiciones iniciales específicas. Por otro lado, al historiador le interesa dar con descripciones
de situaciones que tienen lugar en ciertas regiones espacio-temporales finitas -es decir, lo que
he denominado condiciones iniciales específicas- y contrastar o confrontar su adecuación o
precisión. En este tipo de contrastes emplea, además de otras condiciones iniciales específicas,
leyes universales de todo tipo -normalmente, más bien obvias- que pertenecen a su horizonte
de expectativas, aunque por regla general no es consciente de que las está utilizando. En esto
se parece al teórico. [Con todo, la diferencia es muy marcada: es la diferencia que hay entre sus
diversos intereses o problemas, la diferencia que hay entre lo que cada uno de ellos considera
problemático.]
En un esquema lógico [similar a los anteriores] el procedimiento del teórico puede
representarse del siguiente modo:

U0 es aquí la ley universal, la hipótesis universal que está a examen. Se mantiene constante a
través de las contrastaciones y se emplea junto con otras varias leyes U1, U2, … y otras
condiciones iniciales diversas I1, I2, … a fin de derivar diversas predicciones P1, P2, … que pueden
ser confrontadas con hechos observables reales.
El procedimiento del historiador se puede representar con el esquema siguiente:
Aquí I0 es l hipótesis histórica, la descripción histórica que ha de ser examinada o contrastada.
Se mantiene constante a través de las contrastaciones y se combina con diversas leyes
(sumamente obvias) U1, U2, U3, … y con condiciones iniciales correspondientes I1, I2, I3, … para
derivar diversas predicciones P1, P2, P3, etc.

Una explicación será satisfactoria sólo si sus leyes universales, su teoría, se puede contrastar
independientemente del explicandum. Mas esto significa que una teoría explicativa
satisfactoria siempre debe decir más de lo que ya estaba contenido en los explicando que nos
impulsaron inicialmente a proponerla. En otras palabras, por principio, las teorías satisfactorias
deben transcender los casos empíricos que las hicieron surgir, pues de lo contrario, como
hemos visto,
no llevarían más que a explicaciones circulares.
Tenemos aquí un principio metodológico que está en contradicción directa con las tendencias
positivistas y empiristas ingenuas [o inductivistas]. Es un principio que nos exige atrevernos a
proponer hipótesis audaces (que, a ser posible, abran nuevos campos de observación) y no
aquellas generalizaciones prudentes a partir de observaciones "dadas" que [desde Bacon]
continúan siendo los ídolos de todo empirista ingenuo.
Nuestro punto de vista, según el cual el objeto de la ciencia es proponer explicaciones o (lo que
en esencia conduce a la misma situación lógica) crear las bases teóricas para predicciones y
otras aplicaciones, este punto de vista, nos ha llevado a la exigencia metodológica de que
nuestras teorías han de ser contrastables. Con todo, hay grados de contrastabilidad. Unas
teorías se pueden contrastar mejor que otras. Si fortalecemos nuestra exigencia metodológica
y tendemos a teorías que se puedan contrastar cada vez mejor, desembocamos en un principio
metodológico -o un enunciado sobre el objeto de la ciencia- cuya adopción [inconsciente] en el
pasado explicaría racionalmente gran número de acontecimientos de la historia de la ciencia:
los explicaría como pasos que llevan al cumplimiento del objetivo de la ciencia.
(Simultáneamente, enuncia dicho objeto al decirnos qué se considera progreso en ciencia,
pues frente a la mayoría de las otras actividades humanas -particularmente en arte y música-
en ciencia se da realmente un progreso.)
El análisis y comparación de los grados de contrastabilidad de diversas teorías muestra que la
contrastabilidad de una teoría aumenta con su grado de universidad, así como con su grado de
exactitud o precisión.
La situación es bien sencilla. Con el grado de universalidad de una teoría aumenta la amplitud
de sucesos sobre los que la teoría puede hacer predicciones y, en consecuencia, también
aumenta el dominio de posibles falsaciones. Ahora bien, la teoría que es más fácilmente
falsada es a la vez la que mejor se puede contrastar. Si consideramos el grado de exactitud o
precisión llegamos a una situación similar. Un enunciado preciso es más fácil de refutar que
otro vago y por eso puede ser mejor contrastado. Esta consideración nos permite también
explicar la exigencia de que los enunciados cualitativos sean sustituidos, si ello es posible, por
otros cuantitativos, en virtud de nuestro principio de aumentar el grado de contrastabilidad de
las teorías. (De este modo, también podemos explicar el papel desempeñado por la medición
en la contrastación de teorías; se trata de un recurso que se hace cada vez más importante en
el transcurso del progreso científico, aunque no se puede manejar [como a menudo sucede]
como rasgo característico de la ciencia o de la formación de teorías en general. No hemos de
olvidar que los procedimientos de medición sólo empiezan a usarse en un estadio muy
avanzado del desarrollo de algunas ciencias y que, incluso hoy, no se emplean en todas ellas.
Tampoco hemos de olvidar que toda medición depende de supuestos teóricos.)

La transición de las teorías de Kepler y Galileo a la de Newton constituye un excelente ejemplo


de la historia de la ciencia que puede utilizarse para ilustrar mi análisis. El hecho innegable e
importante de que la teoría de Newton contradice a ambas teorías, muestra que dicha
transición nada tiene que ver con la inducción y que la teoría de Newton no se puede tomar
como generalización a partir de las teorías anteriores. Por tanto, las leyes de Kepler no se
pueden deducir de las de Newton [a pesar de que se ha dicho frecuentemente que pueden ser
deducidas a partir de ellas e incluso que éstas se pueden deducir de las de Kepler]: las leyes de
Kepler sólo se pueden obtener aproximadamente a partir de las de Newton, aceptando la
suposición [falsa] de que las masas de los diversos planetas son despreciables comparadas con
la masa del sol. De modo similar, la ley de Galileo para la caída libre de los cuerpos no se puede
deducir de la teoría de Newton; antes bien, la contradice. Sólo aceptando la suposición [falsa]
de que la distancia total de caída es despreciable comparada con el radio terrestre podemos
obtener aproximadamente la ley de Galileo partiendo de la teoría de Newton.
Esto muestra, naturalmente, que la teoría de Newton no puede constituir una generalización
obtenida por inducción [o deducción], sino que es una nueva hipótesis que puede iluminar el
camino hacia la falsación de las viejas teorías: puede iluminar y señalar la vía de acceso a esos
dominios en los que, según la nueva teoría, las viejas son incapaces de arrojar buenas
aproximaciones.
Si la teoría de Newton se hubiese limitado a unir las leyes de Kepler y Galileo, habría resultado
ser únicamente una explicación circular de dichas leyes y, por tanto, habría sido una explicación
insatisfactoria. Sin embargo, su poder ilustrador y convincente estaba precisamente en su
capacidad de iluminar el camino de acceso a contrastaciones independientes que nos lleva a
predicciones [con éxito] incompatibles con esas teorías anteriores. Significaba una vía de
acceso a nuevos descubrimientos empíricos.
La teoría de Newton es un buen ejemplo de intento de explicar determinadas teorías
anteriores de grado de universalidad más bajo que no sólo conduce a una especie de
unificación de dichas teorías, sino que a la vez lleva a su falsación (y, por tanto, a su corrección,
restringiendo o determinando el dominio en que resultan válidas como buenas
aproximaciones). Tal vez sea más frecuente el caso en que la vieja teoría resulta falsada
primeramente y luego surge la nueva teoría como intento de explicar el éxito parcial y el
fracaso de la vieja.

Es importante señalar otro punto relacionado con mi análisis del concepto (o mejor la práctica)
de explicación. De Descartes [tal vez incluso desde Copérnico] a Maxwell, la mayoría de los
físicos trataban de explicar las nuevas relaciones descubiertas mediante modelos mecánicos; es
decir, intentaban reducirlas a leyes de empuje o presión con las que estaban familiarizados por
el manejo cotidiano de cosas físicas -cosas pertenecientes al reino de los "cuerpos físicos de
tamaño medio-. Descartes montó sobre esta idea un programa para todas las ciencias; incluso
exigía que nos limitásemos a modelos que funcionasen únicamente por empujes o presiones.
Tal programa sufrió su primer derrota con el éxito de la teoría de Newton; mas su derrota (que
constituía un serio motivo de aflicción para Newton y sus contemporáneos) fue pronto
olvidada y la atracción gravitatoria fue admitida en el programa en pie de igualdad con el
empuje y presión. También Maxwell trató de desarrollar su teoría del campo electromagnético
en forma de modelo mecánico del éter, pero terminó por abandonar dicho intento. Con ello el
modelo mecánico perdió casi toda su importancia: sólo quedaron las ecuaciones que
originalmente pretendían describir el modelo mecánico del éter. [Se interpretaron como
descripciones de ciertas propiedades no mecánicas del éter.]
Con este tránsito de una teoría mecánica a otra abstracta, se alcanza un estadio en la evolución
de la ciencia en el que, prácticamente, sólo se exige de las teorías explicativas que puedan ser
contrastadas independientemente; si ello es posible, estamos dispuestos a operar con teorías
que puedan representarse intuitivamente con diagramas dibujables [o con modelos mecánicos
"dibujables" o "visualizables"], que nos suministren teorías "concretas". Pero si no los podemos
obtener, estamos dispuestos a trabajar con teorías matemáticas "abstractas" [que a pesar de
todo pueden ser perfectamente "comprensibles"].
Nuestro análisis general de la idea de explicación no se ve afectado, evidentemente, por los
fallos de un modelo o representación particular. Se aplica a todo tipo de teorías abstractas del
mismo modo que se aplica a los modelos mecánicos o de otro tipo. De hecho, desde nuestro
punto de vista, los modelos no son más que intentos de explicar leyes nuevas en términos de
viejas leyes que ya han sido contrastadas [junto con suposiciones relativas a condiciones
iniciales típicas o a la presencia de una estructura típica -es decir, el modelo en un sentido más
restringido-. A menudo, los modelos desempeñan un papel importante en la extensión y
elaboración de teorías, pero es preciso distinguir entre un modelo nuevo montado sobre viejas
suposiciones teóricas y una nueva teoría -es decir, un nuevo sistema de supuestos teóricos.

No hay vía ni real ni de otro tipo capaz de llevarnos necesariamente de un conjunto "dado" de
hechos específicos a una ley universal. Lo que llamamos "leyes" son hipótesis o conjeturas que
siempre forman parte de un sistema teórico más amplio [de hecho, de todo un horizonte de
expectativas] y que, por tanto, nunca pueden ser sometidas aisladamente a contraste. El
progreso de la ciencia está compuesto de ensayos, supresión de errores y ulteriores ensayos
guiados por la experiencia adquirida en el transcurso de ensayos y errores previos. Nunca
podemos considerar que una teoría particular es absolutamente cierta: toda teoría puede
tornarse problemática por muy bien corroborada que pueda parecer ahora. Ninguna teoría
científica es sacrosanta o está más allá de la crítica. Muchas veces, especialmente en el siglo
pasado, hemos olvidado esto, porque estábamos impresionados por las tan repetidas, y
verdaderamente magníficas, corroboraciones de determinadas teorías mecánicas que
terminaron por ser consideradas indubitablemente verdaderas. El tormentoso desarrollo de la
física a partir del cambio de siglo nos ha dado una buena lección; ahora hemos llegado a ver
que la misión del científico es someter continuamente su teoría a nuevas contrastaciones y que
ninguna teoría puede ser tenida por algo acabado. La contrastación consiste en tomar la teoría
a contrastar y combinarla con todos los tipos posibles de condiciones iniciales, así como con
otras teorías, para confrontar luego las predicciones resultantes con la realidad. Si
desembocamos en expectativas contrariadas, en refutaciones, entonces hemos de reconstruir
la teoría. En este proceso desempeña un papel muy importante el hecho de que se vean
contrariadas algunas de las expectativas con las que antaño abordábamos, ávidamente, la
realidad. Puede compararse a la experiencia del ciego que choca o topa con un obstáculo,
haciéndose así consciente de su existencia. Entramos efectivamente en contacto con la
"realidad" mediante la falsación de nuestras suposiciones. La única experiencia "positiva" que
sacamos de la realidad es el descubrimiento y eliminación de nuestros errores.
Evidentemente, siempre es posible salvar una teoría falsada mediante hipótesis auxiliares. Pero
no es éste el camino progresivo de las ciencias. La reacción adecuada frente a una falsación es
buscar teorías nuevas que parezcan ofrecernos una visión mejor de los hechos. A la ciencia no
le interesa decir la última palabra, si eso significa cerrar nuestra mente a experiencias
falsadoras, sino que le interesa más bien aprender de nuestra experiencia; es decir, de nuestros
errores. Hay un modo de formular las teorías científicas que apunta con particular claridad a la
posibilidad de su falsación: podemos formularlas en forma de prohibiciones [o enunciados
existenciales negativos], como por ejemplo, "No existe un sistema físico cerrado, tal que la
energía cambie en una parte del mismo sin que tengan lugar cambios compensadores en otra
parte" (primera ley de la termodinámica). O, "No existe una máquina con una eficiencia del 100
por 100" (segunda ley). Se puede mostrar que los enunciados universales y los existenciales
negativos son lógicamente equivalentes. Esto nos permite formular todas las leyes universales
del modo indicado; es decir, como prohibiciones. No obstante, se trata de prohibiciones
dirigidas al técnico, no al científico. A aquél le indican cómo ha de proceder si no quiere
desperdiciar sus energías. Mas para el científico son desafíos a contrastar y falsar; le incitan a
intentar descubrir aquellas situaciones cuya existencia prohíben o niegan.
Así, la ciencia es la invención continua de teorías nuevas y el examen infatigable de su
capacidad de arrojar luz sobre la experiencia. Los principios del progreso científico son muy
simples. Exigen que abandonemos la vieja idea de que podemos alcanzar la certeza o incluso
un alto grado de "probabilidad" en el sentido del cálculo de probabilidades con las
proposiciones y teorías científicas (idea que procede de la asimilación de la ciencia con la
magia y del científico con el mago): la tarea del científico no es descubrir la certeza absoluta,
sino descubrir teorías cada vez mejores capaces de someterse a contrastaciones cada vez más
rigurosas [que nos guían, por tanto, y nos desvelan siempre nuevas experiencias,
iluminándolas]. Pero esto quiere decir que dichas teorías han de ser falsables: la ciencia
progresa mediante su falsación.
Popper, K. – La lógica de la investigación científica

Introducción a la lógica de la ciencia

Panorama de algunos problemas fundamentales

El hombre de ciencia, ya sea teórico o experimental, propone enunciados -o sistemas de


enunciados- y los contrasta paso a paso. En particular, en el campo de las ciencias empíricas
construye hipótesis -o sistemas de teorías- y las contrasta con la experiencia por medio de
observaciones y experimentos. Según mi opinión, la tarea de la lógica de la investigación
científica -o lógica del conocimiento- es ofrecer un análisis lógico de tal modo de proceder:
esto es, analizar el método de las ciencias empíricas.

El problema de la inducción

De acuerdo con una tesis que tiene gran aceptación, las ciencias empíricas pueden
caracterizarse por el hecho de que emplean los llamados <<métodos inductivos>>: según esta
tesis, la lógica de la investigación científica sería idéntica a la lógica inductiva, es decir, al
análisis lógico de tales métodos inductivos. Es corriente llamar <<inductiva>> a una inferencia
cuando pasa de enunciados singulares (llamados, a veces, enunciados <<particulares>>), tales
como descripciones de los resultados de observaciones o experimentos, a enunciados
universales, tales como hipótesis o teorías. Ahora bien, desde un punto de vista lógico dista
mucho de ser obvio que estemos justificados al inferir enunciados universales partiendo de
enunciados singulares, por elevado que sea su número; pues cualquier conclusión que
saquemos de este modo corre siempre el riesgo de resultar un día falsa: así, cualquiera que sea
el número de ejemplares de cisnes blancos que hayamos observado, no está justificada la
conclusión de que todos los cisnes sean blancos.
Se conoce con el nombre del problema de la inducción la cuestión acerca de si están
justificadas las inferencias inductivas, o de bajo qué condiciones lo están. El problema de la
inducción puede formularse, asimismo, como la cuestión sobre cómo establecer la verdad de
los enunciados universales basados en la experiencia -como son las hipótesis y los sistemas
teóricos de las ciencias empíricas--. Pues muchos creen que la verdad de estos enunciados se
<<sabe por experiencia>>; sin embargo, es claro que todo informe en que se da cuenta de una
experiencia -o de una observación, o del resultado de un experimento- no puede ser
originariamente un enunciado universal, sino sólo un enunciado singular. Por lo tanto, quien
dice que sabemos por experiencia la verdad de un enunciado universal suele querer decir que
la verdad de dicho enunciado puede reducirse, de cierta forma, a la verdad de otros
enunciados -éstos singulares- que son verdaderos según sabemos por experiencia: lo cual
equivale a decir que los enunciados universales están basados en inferencias inductivas. Así
pues, la pregunta acerca de si hay leyes naturales cuya verdad nos conste viene a ser otro
modo de preguntar si las inferencias inductivas están justificadas lógicamente.
Mas si queremos encontrar un modo de justificar las inferencias inductivas, hemos de intentar,
en primer término, establecer un principio de inducción. Semejante principio sería un
enunciado con cuya ayuda pudiéramos presentar dichas inferencias de una forma lógicamente
aceptable. A los ojos de los mantenedores de la lógica inductiva, la importancia de un principio
de inducción para el método científico es máxima: <<... este principio -dice Reichenbach-
determina la verdad de las teorías científicas; eliminarlo de la ciencia significaría nada menos
que privar a ésta de la posibilidad de decidir sobre la verdad o falsedad de sus teorías; es
evidente que sin él la ciencia perdería el derecho de distinguir sus teorías de las creaciones
fantásticas y arbitrarias de la imaginación del poeta>>.
Pero tal principio de inducción no puede ser una verdad puramente lógica, como una
tautología o un enunciado analítico. En realidad, si existiera un principio de inducción
puramente lógico no habría problema de la inducción; pues, en tal caso, sería menester
considerar todas las inferencias inductivas como transformaciones puramente lógicas, o
tautológicas, exactamente lo mismo que ocurre con las inferencias de la lógica deductiva. Por
tanto, el principio de inducción tiene que ser un enunciado sintético: esto es, uno cuya
negación no sea contradictoria, siro lógicamente posible. Surge, pues, la cuestión acerca de por
qué habría que aceptar semejante principio, y de cómo podemos justificar racionalmente su
aceptación. Algunas personas que creen en la lógica inductiva se precipitan a señalar, con
Reichenbach, que <<la totalidad de la ciencia acepta sin reservas el principio de inducción, y
que nadie puede tampoco dudar de este principio en la vida corriente>>. No obstante, aun
suponiendo que fuese así -después de todo, <<la totalidad de la ciencia>> podría estar en un
error- yo seguiría afirmando que es superfluo todo principio de inducción, y que lleva
forzosamente a incoherencias (incompatibilidades) lógicas. A partir de la obra de Hume debería
haberse visto claramente que aparecen con facilidad incoherencias cuando se admite el
principio de inducción; y también que difícilmente pueden evitarse, ya que, a su vez, el
principio de inducción
tiene que ser un enunciado universal. Así pues, si intentamos afirmar que sabemos por
experiencia que es verdadero, reaparecen de nuevo justamente los mismos problemas que
motivaron su introducción: para justificarlo tenemos que utilizar inferencias inductivas; para
justificar éstas hemos de suponer un principio de inducción de orden superior, y así
sucesivamente. Por tanto, cae por su base el intento de fundamentar el principio de inducción
en la experiencia, ya que lleva, inevitablemente, a una regresión infinita.
Kant trató de escapar a esta dificultad admitiendo que el principio de inducción (que él llamaba
<<principio de causación universal>>) era <<válido a priori>>. Pero, a mi entender, no tuvo
éxito en su ingeniosa tentativa de dar una justificación a priori de los enunciados sintéticos.
Por mi parte, considero que las diversas dificultades que acabo de esbozar de la lógica
inductiva son insuperables. Y me temo que lo mismo ocurre con la doctrina, tan corriente hoy,
de que las inferencias inductivas, aun no siendo <<estrictamente válidas>>, pueden alcanzar
cierto grado de <<seguridad>> o de <<probabilidad>>. Esta doctrina sostiene que las
inferencias inductivas son <<inferencias probables>>. <<Hemos descrito -dice Reichenbach- el
principio de inducción como el medio por el que la ciencia decide sobre la verdad. Para ser más
exactos, deberíamos decir que sirve para decidir sobre la probabilidad: pues no le es dado a la
ciencia llegar a la verdad ni a la falsedad..., más los enunciados científicos pueden alcanzar
únicamente grados continuos de probabilidad, cuyos límites superior e inferior, inalcanzables,
son la verdad y la falsedad>>.
En resumen: la lógica de la inferencia probable o <<lógica de la probabilidad>>, como todas las
demás formas de la lógica inductiva, conduce, bien a una regresión infinita, bien a la doctrina
del apriorismo.
La teoría que desarrollaremos se opone directamente a todos los intentos de apoyarse en las
ideas de una lógica inductiva. Podría describírsela como la teoría del método deductivo de
contrastar, o como la opinión de que una hipótesis sólo puede contrastarse empíricamente -y
únicamente después de que ha sido formulada. Para poder desarrollar esta tesis (que podría
llamarse <<deductivismo>>, por contraposición al <<inductivismo>>) es necesario que ponga
en claro primero la distinción entre la psicología del conocimiento, que trata de hechos
empíricos, y la lógica del conocimiento, que se ocupa exclusivamente de relaciones lógicas.
Pues la creencia en una lógica inductiva se debe, en gran parte, a una confusión de los
problemas psicológicos con los epistemológicos.

Eliminación del psicologismo

El trabajo del científico consiste en proponer teorías y en contrastarlas. La cuestión acerca de


cómo se le ocurre una idea nueva a una persona -ya sea un tema musical, un conflicto
dramático o una teoría científica puede ser de gran interés para la psicología empírica, pero
carece de importancia para el análisis lógico del conocimiento científico. Este no se interesa por
cuestiones de hecho, sino únicamente por cuestiones de justificación o validez; sus preguntas
son del tipo siguiente: ¿puede justificarse un enunciado?; en caso afirmativo, ¿de qué modo?;
¿es contrastable?; ¿depende lógicamente de otros enunciados?; ¿o los contradice quizá? Para
que un enunciado pueda ser examinado lógicamente de esta forma tiene que habérsenos
propuesto antes: alguien debe haberlo formulado y habérnoslo entregado para su examen
lógico.
Mi opinión es que no existe, en absoluto, un método lógico de tener nuevas ideas, ni una
reconstrucción lógica de este proceso. Puede expresarse mi parecer diciendo que todo
descubrimiento contiene <<un elemento irracional>>, o <<una intuición creadora>>. Einstein
habla de un modo parecido de la <<búsqueda de aquellas leyes sumamente universales... a
partir de las cuales puede obtenerse una imagen del mundo por pura deducción. No existe una
senda lógica -dice- que encamine a estas leyes. Sólo puede alcanzarse por la intuición, apoyada
en algo así como una introyección de los objetos de la experiencia>>.

Contrastación deductiva de teorías

El método de contrastar críticamente las teorías y de escogerlas, teniendo en cuenta los


resultados obtenidos en su contraste, procede siempre del modo que indicamos a
continuación. Una vez presentada a título provisional una nueva idea, aún no justificada en
absoluto -sea una anticipación, una hipótesis, un sistema teórico o lo que se quiera-, se extraen
conclusiones de ella por medio de una deducción lógica; estas conclusiones se comparan entre
sí y con otros enunciados pertinentes, con objeto de hallar las relaciones lógicas (tales como
equivalencia, deductibilidad, compatibilidad o incompatibilidad, etc.) que existan entre ellas.
Si queremos, podemos distinguir cuatro procedimientos de llevar a cabo la contrastación de
una teoría. En primer lugar, se encuentra la comparación lógica de las conclusiones unas con
otras: con lo cual se somete a contraste la coherencia interna del sistema. Después, está el
estudio de la forma lógica de la teoría, con objeto de determinar su carácter: si es una teoría
empírica -científica- o si, por ejemplo, es tautológica. En tercer término, tenemos la
comparación con otras teorías, que tiene por principal mira la de averiguar si la teoría
examinada constituiría un adelanto científico en caso de que sobreviviera a las diferentes
contrastaciones a que la sometemos. Y finalmente, viene el contrastarla por medio de la
aplicación empírica de las conclusiones que pueden deducirse de ella.
Lo que se pretende con el último tipo de contraste mencionado es descubrir hasta qué punto
satisfarán las nuevas consecuencias de la teoría -sea cual fuere la novedad de sus asertos- a los
requerimientos de la práctica, ya provengan éstos de experimentos puramente científicos o de
aplicaciones tecnológicas prácticas. También en este caso el procedimiento de contrastar
resulta ser deductivo. Con ayuda de otros enunciados anteriormente aceptados se deducen de
la teoría a contrastar ciertos enunciados singulares -que podremos denominar «predicciones»-;
en especial, predicciones que sean fácilmente contrastables o aplicables. Se eligen entre estos
enunciados los que no sean deductibles de la teoría vigente, y, más en particular, los que se
encuentren en contradicción con ella. A continuación, tratamos de decidir en lo que se refiere a
estos enunciados deducidos (y a otros), comparándolos con los resultados de las aplicaciones
prácticas y de experimentos. Si la decisión es positiva, esto es, si las conclusiones singulares
resultan ser aceptables, o verificadas, la teoría a que nos referimos ha pasado con éxito las
contrastaciones (por esta vez): no hemos encontrado razones para desecharla. Pero si la
decisión es negativa, o sea, si las conclusiones han sido falsadas, esta falsación revela que la
teoría de la que se han deducido lógicamente es también falsa. Conviene observar que una
decisión positiva puede apoyar a la teoría examinada sólo temporalmente, pues otras
decisiones negativas subsiguientes pueden siempre derrocarla. Durante el tiempo en que una
teoría resiste contrastaciones exigentes y minuciosas, y en que no la deja anticuada otra teoría
en la evolución del progreso científico, podemos decir que ha «demostrado su temple» o que
está <<corroborada>> por la experiencia.
En el procedimiento que acabamos de esbozar no aparece nada que pueda asemejarse a la
lógica inductiva. En ningún momento he asumido que podamos pasar por un razonamiento de
la verdad de enunciados singulares a la verdad de teorías. No he supuesto un solo instante que,
en virtud de unas conclusiones <<verificadas>>, pueda establecerse que unas teorías sean
<<verdaderas>>, ni siquiera meramente <<probables>>.

El problema de la demarcación

Entre las muchas objeciones que pueden hacerse contra las tesis que he propuesto, la más
importante es la siguiente: al rechazar el método de la inducción privo a la ciencia empírica de
lo que parece ser su característica más importante; es decir, hago desaparecer las barreras que
separan la ciencia de la especulación metafísica. Mi respuesta a esta objeción es que mi
principal razón para rechazar la lógica inductiva es precisamente que no proporciona un rasgo
discriminador apropiado del carácter empírico, no metafísico, de un sistema teórico; o, en otras
palabras, que no proporciona un <<criterio de demarcación>> apropiado.
Llamo problema de la demarcación al de encontrar un criterio que nos permita distinguir entre
las ciencias empíricas, por un lado, y los sistemas <<metafísicos>>, por otro.
Hume conoció este problema e intentó resolverlo; con Kant se convirtió en el problema central
de la teoría del conocimiento. Si, siguiendo a Kant, llamamos <<problema de Hume>> al de la
inducción, deberíamos designar al problema de la demarcación como <<problema de Kant>>.
De estos dos problemas -que son fuente de casi todos los demás de la teoría del conocimiento-
el de la demarcación es, según entiendo, el más fundamental. En realidad, la razón principal
por la que los epistemólogos con inclinaciones empiristas tienden a prender su fe en el
<<método de la inducción>>, parece ser que la constituye su creencia de que éste es el único
método que puede proporcionar un criterio de demarcación apropiado: esto se aplica,
especialmente, a los empiristas que siguen las banderas del <<positivismo>>.
Los antiguos positivistas estaban dispuestos a admitir únicamente como científicos o legítimos
aquellos conceptos (o bien nociones, o ideas) que, como ellos decían, derivaban de la
experiencia; o sea, aquellos conceptos que ellos creían lógicamente reducibles a elementos de
la experiencia sensorial, tales como sensaciones (o datos sensibles), impresiones,
percepciones, recuerdos visuales o auditivos, etc. Los positivistas modernos son capaces de ver
con mayor claridad que la ciencia no es un sistema de conceptos, sino más bien un sistema de
enunciados. En consecuencia, están dispuestos a admitir únicamente como científicos o
legítimos los enunciados que son reducibles a enunciados elementales (o «atómicos») de
experiencia -a <<juicios de percepción>>, <<proposiciones atómicas>>, <<cláusulas
protocolarias>> o como los quieran llamar-. No cabe duda de que el criterio de demarcación
implicado de este modo se identifica con la lógica inductiva que piden. Desde el momento en
que rechazo la lógica inductiva he de rechazar también todos estos intentos de resolver el
problema de la demarcación. El hallazgo de un criterio de demarcación aceptable tiene que ser
una tarea crucial de cualquier epistemología que no acepte la lógica inductiva.

Los positivistas suelen interpretar el problema de la demarcación de un modo naturalista:


como si fuese un problema de la ciencia natural. En lugar de considerar que se encuentran ante
la tarea de proponer una convención apropiada, creen que tienen que descubrir una diferencia
-que existiría, por decirlo así, en la naturaleza de las cosas- entre la ciencia empírica por una
parte y la metafísica por otra. Tratan constantemente de demostrar que la metafísica, por su
misma naturaleza, no es sino un parloteo absurdo -<<sofistería e ilusión>>, como dice Hume,
que deberíamos <<arrojar al fuego>>. Pero si con las expresiones «absurdo» o «carente de
sentido» no queremos expresar otra cosa, por definición, que «no perteneciente a la ciencia
empírica», en tal caso la caracterización de la metafísica como un absurdo carente de sentido
será trivial: pues a la metafísica se la define normalmente como no empírica. Pero
-naturalmente- los positivistas creen que pueden decir de la metafísica muchas otras cosas,
además de que sus enunciados son no empíricos. Las expresiones «absurdo» y «carente de
sentido» comportan una evaluación peyorativa (y se pretende que la comporten); y, sin duda
alguna, lo que los positivistas tratan realmente de conseguir no es tanto una demarcación
acertada como derribar definitivamente y aniquilar la metafísica. Como quiera que sea, nos
encontramos con que cada vez que los positivistas han intentado decir con mayor claridad lo
que significaba «con sentido» la tentativa conducía al mismo resultado: a una definición de
«cláusula con sentido» (en contraposición a «pseudocláusula sin sentido») que simplemente
reitera el criterio de demarcación de su lógica inductiva.
Esto «se hace patente» con gran claridad en el caso de Wittgenstein, según el cual toda
proposición con sentido tiene que ser lógicamente reducible a proposiciones elementales (o
«atómicas»), que caracteriza como descripciones o «imágenes de la realidad» (caracterización,
por cierto, que ha de cubrir todas las proposiciones con sentido). Podemos darnos cuenta de
que el criterio de sentido de Wittgenstein coincide con el criterio de demarcación de los
inductivistas, sin más que remplazar las palabras «científica» o «legítima» por <<con sentido>>.
Y es precisamente al llegar al problema de la inducción donde se derrumba este intento de
resolver el problema de la demarcación: los positivistas, en sus ansias de aniquilar la
metafísica, aniquilan juntamente con ella la ciencia natural. Pues tampoco las leyes científicas
pueden reducirse lógicamente a enunciados elementales de experiencia. Si se aplicase con
absoluta coherencia, el criterio de sentido de Wittgenstein rechazaría por carentes de sentido
aquellas leyes naturales cuya búsqueda, como dice Einstein, es <<la tarea suprema del físico>>:
nunca podrían aceptarse como enunciados auténticos o legítimos. La tentativa
wittgensteiniana de desenmascarar el problema de la inducción como un pseudoproblema
vacío, ha sido expresada por Schlick con las siguientes palabras: <<El problema de la inducción
consiste en preguntar por la justificación lógica de los enunciados universales acerca de la
realidad... Reconocemos, con Hume, que no existe semejante justificación lógica: no puede
haber ninguna, por el simple hecho de que no son auténticos enunciados>>. (En lo que se
refiere a las leyes naturales, Schlick escribe: <<Se ha hecho notar a menudo que,
estrictamente, no podemos hablar nunca de una verificación absoluta de una ley, pues
hacemos siempre la salvedad de que puede ser modificada a la vista de nuevas experiencias.
Acerca de la situación lógica, el hecho mencionado arriba significa que una ley natural no tiene,
en principio, el carácter de un enunciado, sino que es más bien una prescripción para la
formación de enunciados>>).
Esto hace ver que el criterio inductivista de demarcación no consigue trazar una línea divisoria
entre los sistemas científicos y los metafísicos, y por qué ha de asignar a unos y otros el mismo
estatuto: pues el veredicto del dogma positivista del sentido es que ambos son sistemas de
pseudoaserciones sin sentido. Así pues, en lugar de descastar radicalmente la metafísica de las
ciencias empíricas, el positivismo lleva a una invasión del campo científico por aquélla. Frente a
estas estratagemas antimetafísicas -antimetafísicas en la intención, claro está- no considero
que haya de ocuparme en derribar la metafísica, sino, en vez de semejante cosa, en formular
una caracterización apropiada de la ciencia empírica, o en definir los conceptos de «ciencia
empírica» y de <<metafísica>> de tal manera que, ante un sistema dado de enunciados,
seamos capaces de decir si es asunto o no de la ciencia empírica el estudiarlo más de cerca.
Mi criterio de demarcación, por tanto, ha de considerarse como una propuesta para un
acuerdo o convención. En cuanto a si tal convención es apropiada o no lo es, las opiniones
pueden diferir; mas sólo es posible una discusión razonable de estas cuestiones entre partes
que tienen cierta finalidad común a la vista. Por supuesto que la elección de tal finalidad tiene
que ser, en última instancia, objeto de una decisión que vaya más allá de toda argumentación
racional. Por tanto, quienquiera que plantee un sistema de enunciados absolutamente ciertos,
irrevocablemente verdaderos, como finalidad de la ciencia, rechazará las propuestas que voy a
hacer aquí.
Las metas de la ciencia a las que me refiero son otras. No trato de justificarlas, sin embargo,
presentándolas como el blanco verdadero o esencial de la ciencia, lo cual serviría únicamente
para perturbar la cuestión y significaría una recaída en el dogmatismo positivista. No alcanzo a
ver más que una sola vía para argumentar racionalmente en apoyo de mis propuestas: la de
analizar sus consecuencias lógicas -señalar su fertilidad, o sea, su poder de elucidar los
problemas de la teoría del conocimiento. Así pues, admito abiertamente que para llegar a mis
propuestas me he guiado, en última instancia, por juicios de valor y por predilecciones. El
hecho de que ciertos juicios de valor hayan influido en mis propuestas no quiere decir que esté
cometiendo el error de que he acusado a los positivistas -del de intentar el asesinato de la
metafísica por medio de nombres infamantes-. Ni siquiera llego a afirmar que la metafísica
carezca de valor para la ciencia empírica. Pues no puede negarse que, así como ha habido ideas
metafísicas que han puesto una barrera al avance de la ciencia, han existido otras -tal el
atomismo especulativo- que la han ayudado. Y si miramos el asunto desde un ángulo
psicológico, me siento inclinado a pensar que la investigación científica es imposible sin fe en
algunas ideas de una índole puramente especulativa: fe desprovista enteramente de garantías
desde el punto de vista de la ciencia, y que -en esta misma medida- es «metafísica».
Una vez que he hecho estas advertencias, sigo considerando que la primera tarea de la lógica
del conocimiento es proponer un concepto de ciencia empírica con objeto de llegar a un uso
lingüístico -actualmente algo incierto- lo más definido posible, y a fin de trazar una línea de
demarcación clara entre la ciencia y las ideas metafísicas -aun cuando dichas ideas puedan
haber favorecido el avance de la ciencia a lo largo de toda su historia.

La experiencia como método

La tarea de formular una definición aceptable de la idea de ciencia empírica no está exenta de
dificultades. Algunas de ellas surgen del hecho de que tienen que existir muchos sistemas
teóricos cuya estructura lógica sea muy parecida a la del sistema aceptado en un momento
determinado como sistema de la ciencia empírica. En ocasiones se describe esta situación
diciendo que existen muchísimos <<mundos lógicamente posibles>> -posiblemente un número
infinito de ellos-. Y, con todo, se pretende que el sistema llamado <<ciencia empírica>>
represente únicamente un mundo: el <<mundo real>> o <<mundo de nuestra experiencia>>.
Con objeto de precisar un poco más esta afirmación, podemos distinguir tres requisitos que
nuestro sistema teórico empírico tendrá que satisfacer. Primero, ha de ser sintético, de suerte
que pueda representar un mundo no contradictorio, posible; en segundo lugar, debe satisfacer
el criterio de demarcación, es decir, no será metafísico, sino representará un mundo de
experiencia posible; en tercer término, es menester que sea un sistema que se distinga -de
alguna manera- de otros sistemas semejantes por ser el que represente nuestro mundo de
experiencia. Mas, ¿cómo ha de distinguirse el sistema que represente nuestro mundo de
experiencia? He aquí la respuesta: por el hecho de que se le ha sometido a contraste y ha
resistido las contrastaciones. Esto quiere decir que se le ha de distinguir aplicándole el método
deductivo que pretendo analizar y describir. Según esta opinión, la <<experiencia>> resulta ser
un método distintivo mediante el cual un sistema teórico puede distinguirse de otros; con lo
cual la ciencia empírica se caracteriza -al parecer no sólo por su forma lógica, sino por su
método de distinción. (Desde luego, ésta es también la opinión de los inductivistas, que
intentan caracterizar la ciencia empírica por su empleo del método inductivo.) Por tanto, puede
describirse la teoría del conocimiento, cuya tarea es el análisis del método o del proceder
peculiar de la ciencia empírica, como una teoría del método empírico -una teoría de lo que
normalmente se llama experiencia.

La falsabilidad como criterio de demarcación

El criterio de demarcación inherente a la lógica inductiva -esto es, el dogma positivista del
significado o sentido- equivale a exigir que todos los enunciados de la ciencia empírica (o,
todos los enunciados <<con sentido>>) sean susceptibles de una decisión definitiva con
respecto a su verdad y a su falsedad; podemos decir que tienen que ser <<decidibles de modo
concluyente>>. Esto quiere decir que han de tener una forma tal que sea lógicamente posible
tanto verificarlos como falsarlos. Así, dice Schlick: <<… un auténtico enunciado tiene que ser
susceptible de verificación concluyente>>; y Waismann escribe, aún con mayor claridad: <<Si
no es posible determinar si un enunciado es verdadero, entonces carece enteramente de
sentido: pues el sentido de un enunciado es el método de su verificación>>. Ahora bien; en mi
opinión, no existe nada que pueda llamarse inducción. Por tanto, será lógicamente inadmisible
la inferencia de teorías a partir de enunciados singulares que estén <<verificados por la
experiencia>>. Así pues, las teorías no son nunca verificables empíricamente. Si queremos
evitar el error positivista de que nuestro criterio de demarcación elimine los sistemas teóricos
de la ciencia natural, debemos elegir un criterio que nos permita admitir en el dominio de la
ciencia empírica incluso enunciados que no puedan verificarse. Pero, ciertamente, sólo
admitiré un sistema entre los científicos o empíricos si es susceptible de ser contrastado por la
experiencia. Estas consideraciones nos sugieren que el criterio de demarcación que hemos de
adoptar no es el de la verificabilidad, sino el de la falsabilidad de los sistemas. (Propongo la
falsabilidad como criterio de demarcación, pero no de sentido. He criticado el empleo de la
idea de sentido como criterio de demarcación, y ataco el dogma del sentido. Por tanto, es un
puto mito (aunque gran número de refutaciones de mi teoría están basadas en él) decir que
haya propuesto jamás la falsabilidad como criterio de sentido. La falsabilidad separa dos tipos
de enunciados perfectamente dotados de sentido, los falsables y los no falsables; traza una
línea dentro del lenguaje con sentido, no alrededor de él). Dicho de otro modo: no exigiré que
un sistema científico pueda ser seleccionado de una vez para siempre, en un sentido positivo;
pero sí que sea susceptible de selección en un sentido negativo por medio de contrastes o
pruebas empíricas: ha de ser posible refutar por la experiencia un sistema científico empírico.
(Así, el enunciado <<lloverá o no lloverá aquí mañana>> no se considerará empírico, por el
simple hecho de que no puede ser refutado; mientras que a este otro, <<lloverá aquí
mañana>>, debe considerársele empírico).
Pueden hacerse varias objeciones al criterio de demarcación que propongo. En primer lugar,
puede muy bien parecer que toda sugerencia de que la ciencia -que, según se dice, nos
proporciona informaciones positivas- haya de caracterizarse por satisfacer una exigencia
negativa, como es la de refutabilidad, se encamina en una dirección falsa. Sin embargo, esta
objeción carece de peso, pues el volumen de información positiva que un enunciado científico
comporta es tanto mayor cuanto más fácil es que choque -debido a su carácter lógico- con
enunciados singulares posibles. (No en vano llamamos <<leyes>> a las leyes de la Naturaleza:
cuanto más prohíben más dicen). Puede también parecer que cabe suscitar objeciones contra
la falsabilidad como criterio de demarcación análogas a las que yo he suscitado contra la
verificabilidad. Este ataque no me alteraría. Mi propuesta está basada en una asimetría entre la
verificabilidad y la falsabilidad: asimetría que se deriva de la forma lógica de los enunciados
universales. Pues éstos no son jamás deductibles de enunciados singulares, pero sí pueden
estar en contradicción con estos últimos. En consecuencia, por medio de inferencias
puramente deductivas (valiéndose del modus tollens de la lógica clásica) es posible argüir de la
verdad de enunciados singulares la falsedad de enunciados universales. Una argumentación de
esta índole, que lleva a la falsedad de enunciados universales, es el único tipo de inferencia
estrictamente deductiva que se mueve, como si dijéramos, en «dirección inductiva»: esto es,
de enunciados singulares a universales. Más grave puede parecer una tercera objeción. Podría
decirse que, incluso admitiendo la asimetría, sigue siendo imposible -por varias razones- falsar
de un modo concluyente un sistema teórico: pues siempre es posible encontrar una vía de
escape de la falsación, por ejemplo, mediante la introducción ad hoc de una hipótesis auxiliar o
por cambio ad hoc de una definición; se puede, incluso, sin caer en incoherencia lógica,
adoptar la posición de negarse a admitir cualquier experiencia falsadora. Se reconoce que los
científicos no suelen proceder de este modo, pero el procedimiento aludido siempre es
lógicamente posible; y puede pretenderse que este hecho convierte en dudoso -por lo menos-
el valor lógico del criterio de demarcación que he propuesto. Me veo obligado a admitir que
esta crítica es justa; pero no necesito, por ello, retirar mi propuesta de adoptar la falsabilidad
como criterio de demarcación. Pues voy a proponer que se caracterice el método empírico de
tal forma que excluya precisamente aquellas vías de eludir la falsación que mi imaginario crítico
señala insistentemente, con toda razón, como lógicamente posibles. De acuerdo con mi
propuesta, lo que caracteriza al método empírico es su manera de exponer a falsación el
sistema que ha de contrastarse: justamente de todos los modos imaginables. Su meta no es
salvarles la vida a los sistemas insostenibles, sino, por el contrario, elegir el que
comparativamente sea más apto, sometiendo a todos a la más áspera lucha por la
supervivencia. El criterio de demarcación propuesto nos conduce a una solución del problema
de Hume de la inducción, o sea, el problema de la validez de las leyes naturales. Su raíz se
encuentra en la aparente contradicción existente entre lo que podría llamarse <<la tesis
fundamental del empirismo>> -la de que sólo la experiencia puede decidir acerca de la verdad
o la falsedad de los enunciados científicos- y la inadmisibilidad de los razonamientos
inductivos, de la que se dio cuenta Hume. Esta contradicción surge únicamente si se supone
que todos los enunciados científicos empíricos han de ser «decidibles de modo concluyente»,
esto es, que, en principio, tanto su verificación como su falsación han de ser posibles. Si
renunciamos a esta exigencia y admitimos como enunciados empíricos también los que sean
decidibles en un solo sentido -decidibles unilateralmente, o, más en particular, falsables- y
puedan ser contrastados mediante ensayos sistemáticos de falsación, desaparece la
contradicción: el método de falsación no presupone la inferencia inductiva, sino únicamente las
transformaciones tautológicas de la lógica deductiva, cuya validez no se pone en tela de juicio.

El problema de la <<base empírica>>

Para que la falsabilidad pueda aplicarse de algún modo como criterio de demarcación deben
tenerse a mano enunciados singulares que puedan servir como premisas en las inferencias
falsadoras. Por tanto, nuestro criterio aparece como algo que solamente desplaza el problema
-que nos retrotrae de la cuestión del carácter empírico de las teorías a la del carácter empírico
de los enunciados singulares. Pero incluso en este caso se ha conseguido algo. Pues en la
práctica de la investigación científica la demarcación presenta, a veces, una urgencia inmediata
en lo que se refiere a los sistemas teóricos, mientras que rara vez se suscitan dudas acerca de la
condición empírica de los enunciados singulares. Es cierto que se tienen errores de
observación, y que dan origen a enunciados singulares falsos, pero un científico casi nunca se
encuentra en el trance de describir un enunciado singular como no empírico o metafísico. Por
tanto, los problemas de la base empírica -esto es, los concernientes al carácter empírico de
enunciados singulares y a su contrastación- desempeñan un papel en la lógica de la ciencia algo
diferente del representado por la mayoría de los demás problemas de que habremos de
ocuparnos. Pues gran parte de éstos se encuentran en relación estrecha con la práctica de la
investigación, mientras que el problema de la base empírica pertenece casi exclusivamente a la
teoría del conocimiento. Me ocuparé de ellos, sin embargo, ya que dan lugar a muchos puntos
obscuros: lo cual ocurre, especialmente, con las relaciones entre experiencias perceptivas y
enunciados básicos. (Llamo <<enunciado básico>> o <<proposición básica>> a un enunciado
que puede servir de premisa en una falsación empírica: brevemente dicho, a la enunciación de
un hecho singular.)
Se ha considerado con frecuencia que las experiencias perceptivas proporcionan algo así como
una justificación de los enunciados básicos: se ha mantenido que estos enunciados están
<<basados sobre>> tales experiencias, que mediante éstas se <<manifiesta por inspección>> la
verdad de aquéllos, o que dicha verdad se hace <<patente>> en las experiencias mencionadas,
etc. Todas estas expresiones muestran una tendencia perfectamente razonable a subrayar la
estrecha conexión existente entre los enunciados básicos y nuestras experiencias perceptivas.
Con todo, se tenía la impresión (exacta) de que los enunciados sólo pueden justificarse
lógicamente mediante otros enunciados: por ello, la conexión entre las percepciones y los
enunciados permanecía obscura, y era descrita por expresiones de análoga obscuridad que no
aclaraban nada, sino que resbalaban sobre las dificultades o, en el mejor de los casos, las
señalaban fantasmalmente con metáforas. También en este caso puede encontrarse una
solución, según creo, si separamos claramente los aspectos psicológicos del problema de los
lógicos y metodológicos. Hemos de distinguir, por una parte, nuestras experiencias subjetivas o
nuestros sentimientos de convicción, que no pueden jamás justificar enunciado alguno (aun
cuando pueden ser objeto de investigación psicológica), y, por otra, las relaciones lógicas
objetivas existentes entre los diversos sistemas de enunciados científicos y en el interior de
cada uno de ellos.

Objetividad científica y convicción subjetiva

El empleo que hago de los términos <<objetivo>> y <<subjetivo>> no es muy distinto del
kantiano. Kant utiliza la palabra <<objetivo>> para indicar que el conocimiento científico ha de
ser justificable, independientemente de los caprichos de nadie: una justificación es
<<objetiva>> si en principio puede ser contrastada y comprendida por cualquier persona. <<Si
algo es válido -escribe- para quienquiera que esté en uso de razón, entonces su fundamento es
objetivo y suficiente>>.
Ahora bien; yo mantengo que las teorías científicas no son nunca enteramente justificables o
verificables, pero que son, no obstante, contrastables. Diré, por tanto, que la objetividad de los
enunciados científicos descansa en el hecho de que pueden contrastarse intersubjetivamente.
Kant aplica la palabra <<subjetivo>> a nuestros sentimientos de convicción (de mayor o menor
grado). El examen de cómo aparecen éstos es asunto de la psicología: pueden surgir, por
ejemplo, <<según leyes de la asociación>>; también pueden servir razones objetivas como
<<causas subjetivas del juzgar>>, desde el momento en que reflexionamos sobre ellas y nos
convencemos de su congruencia.
Quizá fue Kant el primero en darse cuenta de que la objetividad de los enunciados se
encuentra en estrecha conexión con la construcción de teorías -es decir, con el empleo de
hipótesis y de enunciados universales-. Sólo cuando se da la recurrencia de ciertos
acontecimientos de acuerdo con reglas o regularidades -y así sucede con los experimentos
repetibles- pueden ser contrastadas nuestras observaciones por cualquiera (en principio). Ni
siquiera tomamos muy en serio nuestras observaciones, ni las aceptamos como científicas,
hasta que las hemos repetido y contrastado. Sólo merced a tales repeticiones podemos
convencernos de que no nos encontramos con una mera <<coincidencia>> aislada, sino con
acontecimientos que, debido a su regularidad y reproductibilidad, son, en principio,
contrastables intersubjetivamente.
Todo físico experimental conoce esos sorprendentes e inexplicables <<efectos>> aparentes,
que tal vez pueden, incluso, ser reproducidos en su laboratorio durante cierto tiempo, pero
que finalmente desaparecen sin dejar rastro. Por supuesto, ningún físico diría en tales casos
que había hecho un descubrimiento científico (aun cuando puede intentar una nueva puesta a
punto de sus experimentos con objeto de hacer reproducible el efecto). En realidad, puede
definirse el efecto físico científicamente significativo como aquél que cualquiera puede
reproducir con regularidad sin más que llevar a cabo el experimento apropiado del modo
prescrito. Ningún físico serio osaría publicar, en concepto de descubrimiento científico, ningún
<<efecto oculto>> (como propongo llamarlo) de esta índole, es decir, para cuya reproducción
no pudiese dar instrucciones. Semejante «descubrimiento» se rechazaría más que de prisa por
quimérico, simplemente porque las tentativas de contrastarlo llevarían a resultados negativos.
(De ello se
sigue que cualquier controversia sobre la cuestión de si ocurren en absoluto acontecimientos
que en principio sean irrepetibles y únicos no puede decidirse por la ciencia: se trataría de una
controversia metafísica.)
Mi tesis de que una experiencia subjetiva, o un sentimiento de convicción, nunca pueden
justificar un enunciado científico; y de que semejantes experiencias y convicciones no pueden
desempeñar en la ciencia otro papel que el de objeto de una indagación empírica (psicológica).
Por intenso que sea un sentimiento de convicción nunca podrá justificar un enunciado. Por
tanto, puedo estar absolutamente convencido de la verdad de un enunciado, seguro de la
evidencia de mis percepciones, abrumado por la intensidad de mi experiencia: puede
parecerme absurda toda duda. Pero, ¿aporta, acaso, todo ello la más leve razón a la ciencia
para aceptar mis enunciados? ¿Puede justificarse ningún enunciado por el hecho de que K. R. P.
esté absolutamente convencido de su verdad? La única respuesta posible es que no, y
cualquiera otra sería incompatible con la idea de la objetividad científica. Incluso el hecho -para
mí tan firmemente establecido- de que estoy experimentando un sentimiento de convicción,
no puede aparecer en el campo de la ciencia objetiva más que en forma de hipótesis
psicológica; la cual, naturalmente, pide un contraste o comprobación intersubjetivo: a partir de
la conjetura de que yo tengo este sentimiento de convicción, el psicólogo puede deducir,
valiéndose de teorías psicológicas y de otra índole, ciertas predicciones acerca de mi conducta
-que pueden confirmarse o refutarse mediante contrastaciones experimentales-. Pero, desde el
punto de vista epistemológico, carece enteramente de importancia que mi sentimiento de
convicción haya sido fuerte o débil, que haya procedido de una impresión poderosa o incluso
irresistible de certeza indudable (o <<evidencia>>), o simplemente de una insegura sospecha:
nada de todo esto desempeña el menor papel en la cuestión de cómo pueden justificarse los
enunciados científicos. Al exigir que haya objetividad, tanto en los enunciados básicos como en
cualesquiera otros enunciados científicos, nos privamos de todos los medios lógicos por cuyo
medio pudiéramos haber esperado reducir la verdad de los enunciados científicos a nuestras
experiencias. Aún más: nos vedamos todo conceder un rango privilegiado a los enunciados que
formulan experiencias, como son los que describen nuestras percepciones (y a los que, a veces,
se llama <<cláusulas protocolarias>>): pueden aparecer en la ciencia únicamente como
enunciados psicológicos, lo cual quiere decir como hipótesis de un tipo cuyo nivel de
contrastación intersubjetiva no es, ciertamente, muy elevado (teniendo en cuenta el estado
actual de la psicología).
Cualquiera que sea la respuesta que demos finalmente a la cuestión de la base empírica, una
cosa tiene que quedar clara: si persistimos en pedir que los enunciados científicos sean
objetivos, entonces aquéllos que pertenecen a la base empírica de la ciencia tienen que ser
también objetivos, es decir, contrastables intersubjetivamente. Pero la contrastabilidad
intersubjetiva implica siempre que, a partir de los enunciados que se han de someter a
contraste, puedan deducirse otros también contrastables. Por tanto, si los enunciados básicos
han de ser contrastables intersubjetivamente a su vez, no puede haber enunciados últimos en
la ciencia: no pueden existir en la ciencia enunciados últimos que no puedan ser contrastados,
y, en consecuencia, ninguno que no pueda -en principio- ser refutado al falsar algunas de las
conclusiones que sea posible deducir de él.
De este modo llegamos a la siguiente tesis. Los sistemas teóricos se contrastan deduciendo de
ellos enunciados de un nivel de universalidad más bajo; éstos, puesto que han de ser
contrastables intersubjetivamente, tienen que poderse contrastar de manera análoga -y así ad
infinitum. Podría pensarse que esta tesis lleva a una regresión infinita, y que, por tanto, es
insostenible. Al criticar la inducción, opuse la objeción de que llevaría a un regreso infinito; y
puede muy bien parecer ahora que la misma objeción exactamente puede invocarse contra el
procedimiento de contrastación deductiva que defiendo a mi vez. Sin embargo, no ocurre así.
El método deductivo de contrastar no puede estatuir ni justificar los enunciados que se
contrastan, ni se pretende que lo haga; de modo que no hay peligro de una regresión infinita.
Pero ha de admitirse que la situación sobre la que acabo de llamar la atención -la
contrastabilidad ad infinitum y la ausencia de enunciados últimos que no necesitasen ser
contrastados- crea, ciertamente, un problema. Pues es evidente que, de hecho, las
contrastaciones no pueden prolongarse ad infinitum: más tarde o más temprano hemos de
detenernos. Sin discutir ahora el problema en detalle, quiero únicamente señalar que la
circunstancia de que las contrastaciones no puedan continuar indefinidamente no choca con
mi petición de que todo enunciado científico sea contrastable. Pues no pido que sea preciso
haber contrastado realmente todo enunciado científico antes de aceptarlo: sólo requiero que
cada uno de estos enunciados sea susceptible de contrastación; dicho de otro modo: me niego
a admitir la tesis de que en la ciencia existan enunciados cuya verdad hayamos de aceptar
resignadamente, por la simple razón de no parecer posible -por razones lógicas- someterlos a
contraste.

La falsabilidad

Algunas objeciones convencionalistas

Objeciones contra la propuesta de adopción de la falsabilidad como criterio para decidir si un


sistema teórico pertenece o no a la ciencia empírica. La escuela convencionalista admira la
bella y austera sencillez del mundo, tal como nos la revelan las leyes de la física. Los
convencionalistas parecen tener la sensación de que semejante sencillez sería incomprensible
si nos viésemos obligados a creer, con los realistas, que las leyes de la Naturaleza nos revelan
una íntima sencillez estructural de nuestro mundo bajo su apariencia de una desbordante
variedad. El idealismo kantiano trató de explicar aquélla diciendo que quien impone sus leyes a
la Naturaleza es nuestro propio intelecto; de modo parecido, el convencionalista califica a
aquélla de creación nuestra: para él, sin embargo, no es un efecto de las leyes de nuestro
intelecto en su auto-imposición sobre la Naturaleza, con lo que ésta se convertiría en algo muy
sencillo: pues el convencionalista no cree que la Naturaleza lo sea. Sólo son sencillas las
<<leyes de la Naturaleza>>; y el convencionalista sostiene que éstas son libres creaciones
nuestras, invenciones, decisiones arbitrarias y convenciones nuestras. Según él, la ciencia
natural teórica no es una imagen de la Naturaleza, sino una mera construcción lógica; y no son
las propiedades del mundo las que determinarían esta construcción, sino que -por el contrario-
precisamente es ésta la que determina las propiedades de un mundo artificial, un mundo de
conceptos definidos implícitamente por las leyes naturales que hemos elegido. Sólo de
semejante mundo es del que habla la ciencia.
De acuerdo con el punto de vista convencionalista, las leyes de la Naturaleza no son falsables
por la observación, pues se necesitan para determinar qué es una observación -y, más en
particular, qué es una medición científica-. Son estas leyes que nosotros hemos establecido las
que forman la base indispensable para la regulación de nuestros relojes y la corrección de
nuestras reglas graduadas (que llamamos <<rígidas>>): decimos que un reloj es <<exacto>> y
que una regla graduada es <<rígida>> cuando los movimientos medidos valiéndose de estos
instrumentos satisfacen los axiomas de la mecánica que hemos decidido adoptar. (Podría
considerarse también a esta tesis como una tentativa de resolver el problema de la inducción:
pues éste desaparecería se las leyes naturales fuesen definiciones, y, por tanto, tautologías. Así,
pues, el enunciado <<el punto de fusión del plomo es 335°C, aproximadamente>>, es parte de
la definición del concepto <<plomo>> (sugerido por la experiencia inductiva), y, por ello, no
puede ser refutado: una substancia que por lo demás se asemejase al plomo, pero que tuviese
otro punto de fusión, no sería plomo, simplemente (<<convencionalismo radical>>). Pero,
según mi opinión, el enunciado del punto de fusión del plomo es, qua enunciado científico,
sintético: afirma, entre otras cosas, que un elemento de una estructura atómica determinada
tiene siempre ese punto de fusión, sea cualquiera el nombre que le demos).
El convencionalismo ha aclarado las relaciones entre la teoría y la experiencia. Ha reconocido la
importancia del papel desempeñado por nuestras acciones y operaciones -planteadas de
acuerdo con convenciones y con razonamientos deductivos—en la realización y en la
interpretación de nuestros experimentos científicos; lo cual había sido pasado por alto, en gran
medida por el inductivismo. En mi opinión, el convencionalismo es un sistema completo y
defendible, y no es fácil que tengan éxito los intentos de descubrir en él incoherencias. Pero, a
pesar de todo ello, lo encuentro totalmente inaceptable; subyace a él una teoría de la ciencia,
de su finalidad y sus propósitos, radicalmente distinta de la mía. Mientras que yo no pido a la
ciencia ninguna certidumbre definitiva (y, en consecuencia, no la encuentro), el
convencionalista busca en ella <<un sistema de conocimientos apoyado en razones últimas>>.
Se puede alcanzar
esta meta, ya que siempre es posible interpretar un sistema científico dado como un sistema
de definiciones implícitas; y los períodos en que la ciencia se desarrolla lentamente apenas
darán ocasión para que surja un conflicto -excepto los puramente académicos- entre los
científicos inclinados hacia el convencionalismo y los que puedan sentirse más cerca de una
tesis como la que yo defiendo. Pero muy de otro modo serán las cosas en época de crisis.
Siempre que el sistema <<clásico>> del momento se vea amenazado por los resultados de
nuevos experimentos que podrían interpretarse como falsaciones desde mi punto de vista, el
mismo sistema presentará un aspecto impasible para el convencionalista: dará una explicación
que eliminará las incompatibilidades que puedan haber surgido, tal vez inculpando a nuestro
imperfecto dominio del sistema; o acabará con ellas sugiriendo la adopción ad hoc de ciertas
hipótesis auxiliares, o quizá la ejecución de ciertas correcciones en nuestros aparatos de
medida. En tales épocas de crisis se agudizará este conflicto acerca de la finalidad de la ciencia.
Nosotros -y los que comparten nuestra actitud- esperaremos llevar a cabo nuevos
descubrimientos, y confiaremos en que un sistema científico recién erigido nos ayudará en esta
labor: por ello, un experimento falsador despertará nuestro máximo interés, lo acogeremos
como un éxito, por habernos abierto nuevas perspectivas sobre un mundo de nuevas
experiencias. Pero el convencionalista verá la estructura que está empezando a elevarse -y cuya
audacia nosotros admiramos- como un monumento al <<colapso total de la ciencia>>; a sus
ojos, sólo un principio
puede ayudarnos a elegir un sistema entre todos los posibles: el de escoger el más sencillo (o
sea, el sistema más sencillo de definiciones implícitas); lo cual quiere decir, en la práctica, el
sistema <<clásico>> del momento.
Así pues, mi conflicto con el convencionalista no puede dirimirse definitivamente por una mera
discusión teórica desapasionada. Y, con todo, creo que es posible extraer de su actitud
intelectual ciertos argumentos interesantes contra mi criterio de demarcación; por ejemplo: Un
convencionalista podría decir: yo admito que los sistemas teóricos de las ciencias de la
Naturaleza no son verificables, pero afirmo que tampoco son falsables; pues siempre existe la
posibilidad de <<... conseguir, para un sistema axiomático cualquiera dado, lo que se llama su
correspondencia con la realidad>>; lo cual podría conseguirse de diversas maneras: así,
podemos introducir hipótesis ad hoc, modificar las llamadas <<definiciones ostensivas>> (o las
<<definiciones explícitas>> que podrían remplazadas), o adoptar una actitud escéptica con
respecto a la confianza que deberíamos depositar en el experimentador y excluir sus
observaciones -que amenazan nuestro sistema- de la ciencia, basándonos en que carecen de
base suficiente, en que no son científicas o no son objetivas, o incluso en que el
experimentador es un embustero; en último caso, podemos siempre expresar dudas acerca de
la agudeza mental del científico teórico. Por tanto, según la tesis convencionalista, no es
posible dividir las teorías en falsables y no falsables; o, mejor dicho, semejante distinción sería
ambigua. Por consiguiente, nuestro criterio de falsabilidad se habría de convertir en inaplicable
como criterio de demarcación.

Reglas metodológicas

Estas objeciones de un convencionalista imaginario me parecen incontestables, exactamente


igual que su filosofía misma. Admito que mi criterio de falsabilidad no nos conduce a una
clasificación desprovista de ambigüedades; en realidad, mediante el análisis de su forma lógica
es imposible decidir si un sistema de enunciados es un sistema convencional de definiciones
implícitas irrefutables o si es un sistema empírico (en el sentido que yo doy a esta palabra: es
decir, si es refutable). Sin embargo, esto equivale a indicar que mi criterio de demarcación no
puede ser aplicado inmediatamente a un sistema de enunciados. Por tanto, existe un error de
principio en la cuestión acerca de si un sistema dado debe considerarse, como tal,
convencionalista o empírico: para que sea posible en absoluto preguntar si nos encontramos
ante una teoría convencionalista o empírica es indispensable referirse a los métodos aplicados
al sistema teórico. El único modo de eludir el convencionalismo es tomar una decisión: la de no
aplicar sus métodos. Decidimos que, en el caso de que se presente una amenaza para nuestra
teoría, no la salvaremos por ningún género de estratagema convencionalista; así pues, nos
guardaremos de explotar la posibilidad que acabamos de mencionar -y que está siempre
abierta- de <<... conseguir, para un sistema dado, lo que se llama su “correspondencia con la
realidad”>>. Ha de dejarse al investigador -especialmente en los campos de la sociología y de la
psicología- la tarea de guardarse constantemente de la tentación de emplear nuevas
estratagemas convencionalistas: tentación a la que el psicoanálisis, por ejemplo, sucumbe
frecuentemente. En lo que respecta a las hipótesis auxiliares, decidimos establecer la regla de
que se considerarán aceptables únicamente aquéllas cuya introducción no disminuya el grado
de falsabilidad o contrastabilidad del sistema, sino que, por el contrario, lo aumente. Si tal
grado aumenta, con la introducción de la hipótesis se ha reforzado realmente la teoría: el
sistema excluye más posibilidades que antes, prohíbe más. Podemos expresar lo mismo del
modo siguiente: siempre que se introduzca una nueva hipótesis ha de considerarse que se ha
hecho un intento de construir un nuevo sistema, que debería ser juzgado siempre sobre la base
de si su adopción significaría un nuevo progreso en nuestro conocimiento del mundo. Podemos
matizar nuestra regla metodológica haciendo la advertencia de que no es preciso rechazar
como convencionalista toda hipótesis auxiliar que no llegue a satisfacer nuestra norma; en
particular, existen enunciados singulares, que propiamente no pertenecen en absoluto a la
teoría: a veces se los denomina <<hipótesis auxiliares>>, y aunque se introducen en beneficio
de la teoría son enteramente inofensivos. (Como ejemplo cabe citar la asunción de que una
observación o medición determinada que no es posible repetir pueda deberse a un error).
Las definiciones explícitas, mediante las cuales se da sentido a los conceptos de un sistema de
axiomas a base de otro sistema de menor universalidad. Pueden permitirse cambios en tales
definiciones, si es que resultan útiles; pero deben considerarse como modificaciones del
sistema, que ha de ser examinado a continuación de nuevo, como si fuese otro. En lo que
respecta a los nombres universales sin definir, hay que distinguir dos posibilidades: 1) que
existan ciertos conceptos no definidos que aparezcan únicamente en enunciados del máximo
nivel de universalidad, y cuyo empleo esté fijado por el hecho de que sepamos la relación
lógica en que se encuentran con otros conceptos, con lo cual podrán eliminarse en el curso de
la deducción (un ejemplo, la <<energía>>); 2) que haya otros conceptos sin definir que
aparezcan también en enunciados de un nivel de universalidad más bajo, y cuyo sentido esté
fijado por el uso (por ejemplo, <<movimiento>>, <<punto-masa>>, <<posición>>):
prohibiremos que se altere subrepticiamente su uso, y, por lo demás, procederemos conforme
a nuestras decisiones metodológicas.

Investigación lógica de la falsabilidad

Solamente es necesario ponerse en guardia contra las estratagemas convencionalistas en el


caso de sistemas que serían falsables si se los tratase de acuerdo con nuestras reglas del
método empírico. Supongamos que hemos excluido con éxito dichas estratagemas mediante
nuestras reglas; podemos pedir ahora una caracterización lógica de tales sistemas falsables.
Intentaremos caracteriza la falsabilidad de una teoría por las relaciones lógicas que existen
entre ella y la clase de los enunciados básicos. Cuando hablo de <<enunciados básicos>> no me
estoy refiriendo a un sistema de enunciados aceptados; en lugar de ello, hay que entender que
el sistema de los enunciados básicos incluye todos los enunciados singulares coherentes
dotados de cierta forma lógica: como si dijéramos, todos los enunciados singulares de hechos.
Así pues, el sistema de todos los enunciados básicos contendrá muchos incompatibles entre sí.
Como primera aproximación, podría tal vez intentarse llamar <<empírica>> a una teoría
siempre que puedan deducirse de ella enunciados singulares; pero este intento resulta fallido,
porque para deducir enunciarlos singulares de una teoría necesitarnos siempre otros
enunciados singulares, las condiciones iniciales, que nos indican cómo se ha de realizar la
sustitución de las variables de la teoría. Una segunda tentativa consistiría en denominar
<<empírica>> a una teoría si es posible deducir de ella enunciados singulares valiéndose de
otros enunciados del mismo tipo que sirvan de condiciones iniciales. Pero tampoco nos valdrá
esto, pues también una teoría no empírica (por ejemplo, una que sea tautológica) nos
permitiría deducir ciertos enunciados singulares a partir de otros de la misma especie. (Según
las reglas de la lógica, por ejemplo, podemos decir: de la conjunción de <<dos por dos es
cuatro>> y <<aquí hay un cuervo negro>> se sigue, entre otras cosas, <<aquí hay un cuervo>>.)
Ni siquiera bastaría exigir que fuera posible deducir de la teoría juntamente con las condiciones
iniciales más de lo que se puede deducir de dichas condiciones iniciales solas: este requisito
eliminaría, ciertamente, las teorías tautológicas, pero no excluiría los enunciados metafísicos
sintéticos. (Por ejemplo, de <<todo acontecimiento tiene una causa>> y <<aquí acontece una
catástrofe>> podemos deducir <<esta catástrofe tiene una causa>>). De este modo, nos vemos
conducidos a pedir que la teoría nos permita deducir, hablando toscamente, más enunciados
singulares empíricos de los que podemos deducir de las condiciones iniciales solas. Esto quiere
decir que hemos de apoyar nuestra definición en una clase particular de enunciados singulares;
y éste es, justamente, el propósito para el que necesitamos los enunciados básicos. Teniendo
en cuenta que no sería muy fácil indicar en detalle cómo sirve un sistema teórico complicado
para la deducción de enunciados singulares o básicos, propongo la definición siguiente: Se
llama <<empírica>> o <<falsable>> a una teoría cuando divide de modo inequívoco la clase de
todos los posibles enunciados básicos en las dos subclases no vacías siguientes: primero, la
clase de todos los enunciados básicos con los que es incompatible (o, a los que excluye o
prohíbe), que llamaremos la clase de los posibles falsadores de la teoría; y, en segundo lugar, la
clase de los enunciados básicos con los que no está en contradicción (o, que <<permite>>).
Podemos expresar esta definición de una forma más breve diciendo que una teoría es falsable
si la clase de sus posibles falsadores no es una clase vacía. Puede añadirse, tal vez, que una
teoría hace afirmaciones únicamente acerca de sus posibles falsadores (afirma su falsedad);
acerca de los enunciados básicos <<permitidos>> no dice nada: en particular, no dice que sean
verdaderos.

Falsabilidad y falsación

Hemos introducido la falsabilidad exclusivamente como criterio del carácter empírico de un


sistema de enunciados; en cuanto a la falsación: Únicamente decimos que una teoría está
falsada si hemos aceptado enunciados básicos que la contradigan. Esta condición es necesaria,
pero no suficiente, pues hemos visto que los acontecimientos aislados no reproducibles
carecen de significación para la ciencia: así, difícilmente nos inducirán a desechar una teoría
-por falsada- unos pocos enunciados básicos esporádicos; pero la daremos por tal si
descubrimos un efecto reproducible que la refute; dicho de otro modo: aceptamos la falsación
solamente si se propone y corrobora una hipótesis empírica de bajo nivel que describa
semejante efecto, y podemos denominar a este tipo de hipótesis una hipótesis falsadora. (La
hipótesis falsadora puede tener un nivel de universalidad muy bajo (obtenido por
generalización de las coordenadas individuales de un dato de observación); aun cuando ha de
ser contrastable intersubjetivamente no necesita ser, en realidad, un enunciado estrictamente
universal. Así, para falsar el enunciado <<todos los cuervos son negros>> bastaría el enunciado
-contrastable intersubjetivamente- de que existiera una familia de cuervos blancos en el
parque zoológico de Nueva York. Todo esto indica la urgente necesidad de reemplazar una
hipótesis falsada por otra mejor. En la mayoría de los casos, antes de falsar una hipótesis
tenemos ya otra, pues el experimento falsador suele ser un experimento crucial planteado de
modo que nos permita decidir entre las dos; lo cual equivale a decir que dicho experimento
nos ha sido sugerido por el hecho de que las dos hipótesis difieren en ciertos respectos, y que
utiliza tales diferencias para refutar (al menos) una de ellas).
El requisito de que la hipótesis falsadora ha de ser empírica, y, por tanto, falsable, quiere decir
exclusivamente que debe encontrarse en cierta relación lógica con respecto a los posibles
enunciados básicos: así pues, lo que exigimos atañe sólo a la forma lógica de la hipótesis. Y su
acompañante, lo de que la hipótesis ha de estar corroborada, se refiere a las contrastaciones
que debe haber pasado (contrastaciones que la habrán enfrentado con los enunciados básicos
aceptados). (Esta referencia a enunciados básicos aceptados parece contener en germen una
regresión infinita. Pues nuestro problema es el siguiente: puesto que se falsa una hipótesis al
aceptar un enunciado básico, necesitamos reglas metodológicas para aceptar enunciados
básicos; ahora bien, si estas reglas se refieren a su vez a otros enunciados básicos aceptados
podemos quedar envueltos en una regresión del tipo indicado. Yo replicaría a este argumento
que las reglas que necesitamos son meramente para aceptar enunciados básicos que falsen
una hipótesis bien contrastada y que había tenido éxito hasta el momento, y que los
enunciados básicos aceptados a que recurre la regla no tienen por qué poseer este carácter;
además, ésta se encuentra muy lejos de ser exhaustiva: sólo menciona un aspecto importante
de la aceptación de enunciados básicos que falsen una hipótesis que, por lo demás, tiene éxito
completo. El profesor J. H. Woodger ha planteado la siguiente cuestión: ¿Con qué frecuencia es
preciso reproducir realmente un efecto para que sea un <<efecto reproducible>>? La respuesta
que hay que dar es: en algunos casos, ni una sola vez. Si afirmo que existe una familia de
cuervos blancos en el parque zoológico de Nueva York, mi aserción puede ser contrastada en
principio; si alguien quiere contrastarla y, al llegar allí, se entera de que la familia citada ha
muerto, o de que nadie ha oído hablar de ella, queda a su arbitrio aceptar o rechazar mi
enunciado básico falsador; y, en general, dispondrá de medios para formarse una opinión
mediante consulta de testigos, documentos, etc.: esto es, recurriendo a otros hechos
contrastables intersubjetivamente y reproducibles).
Por tanto, los enunciados básicos desempeñan dos papeles diferentes. Por una parte, hemos
empleado el sistema de todos los enunciados básicos lógicamente posibles con objeto de
obtener, gracias a ellos, la caracterización lógica que íbamos buscando -la de la forma de los
enunciados empíricos-. Por otra, los enunciados básicos aceptados constituyen la base para la
corroboración de la hipótesis; si contradicen a la teoría, admitimos que nos proporcionan
motivo suficiente para la falsación de ésta únicamente en el caso de que corroboren a la vez
una hipótesis falsadora.

Acontecimientos y eventos

El requisito de falsabilidad, que al principio era un poco vago, ha quedado dividido en dos
partes: la primera -el postulado metodológico- difícilmente puede hacerse enteramente
precisa; la segunda -el criterio lógico- resulta completamente definida en cuanto se aclara a
qué enunciados hemos de llamar <<básicos>>. He presentado este criterio lógico, hasta ahora,
de una manera algo formal: como una relación lógica existente entre enunciados, es decir, los
de la teoría y los enunciados básicos. Quizá aclare estas cuestiones y las haga más intuitivas si
expreso ahora mi criterio en un lenguaje más <<realista>>. En esta manera <<realista>> de
expresarnos podemos decir que un enunciado singular (un enunciado básico) describe un
acontecimiento. En lugar de hablar de enunciados básicos excluidos o prohibidos por una
teoría, podemos decir que ésta excluye ciertos acontecimientos posibles, y que quedará falsada
si tales acontecimientos posibles acontecen realmente.
Se ha dicho a veces que sería menester que expresiones tales como <<acontecimiento>> o
<<evento>> quedasen totalmente eliminadas de los debates epistemológicos, y que no
deberíamos hablar de <<acontecimientos>>, de <<no acontecimientos>> o de <<acontecer>>
unos <<eventos>>, sino -en lugar de todo ello- de la verdad o falsedad de enunciados. Pero, a
pesar de ello, prefiero conservar la expresión <<acontecimiento>>; no ofrece dificultad definir
su empleo de modo que no se le puede objetar nada: pues podemos usarla de modo que
siempre que hablemos de un acontecimiento pudiésemos -en lugar suyo- hablar de algunos de
los enunciados singulares que corresponden a él. Cuando definimos <<acontecimiento>>
hemos de recordar el hecho de que sería enteramente natural decir que dos enunciados
singulares que son lógicamente equivalentes (es decir, mutuamente deductibles) describen el
mismo acontecimiento. Lo cual sugiere la siguiente definición: Sea pk un enunciado singular (el
subíndice <<k>> se refiere a los nombres o coordenadas individuales que aparecen en pk);
llamaremos acontecimiento Pk a la clase de todos los enunciados que son equivalentes a pk.
Así, diremos que es un acontecimiento, por ejemplo, que ahora truena aquí; y podemos
considerar a este acontecimiento como la clase de los enunciados <<ahora truena aquí>>,
<<truena en el 13 distrito de Viena el 10 de junio de 1933 a las 3,15 de la tarde>>, y todos los
demás enunciados equivalentes a éstos. Puede considerarse que la formulación realista <<el
enunciado pk representa el acontecimiento Pk>> quiere decir lo mismo que el enunciado algo
trivial <<el enunciado pk es un elemento de la clase Pk de todos los enunciados equivalentes a
él>>: análogamente, consideramos que el enunciado <<el acontecimiento Pk ha acontecido>>
(o <<está aconteciendo>>) tiene el mismo significado que «pk y todos los enunciados
equivalentes a él son verdaderos>>. El propósito de estas reglas de traducción no es el de
afirmar que todo el que emplea la palabra <<acontecimiento>> en el modo de hablar realista
está pensando en una clase de enunciados, sino simplemente el de dar una interpretación de
tal modo de hablar que haga inteligible lo que se quiere decir, por ejemplo, cuando se
menciona que el acontecimiento Pk contradice a una teoría t. Semejante enunciado implicará
ahora, sencillamente, que todo enunciado equivalente a pk contradice a la teoría t, y es -por
tanto- un posible falsador de ella. Introducimos ahora otro término, el de <<evento>>, para
denotar lo que haya de típico o universal en un acontecimiento, o sea, lo que de un
acontecimiento pueda describirse mediante nombres universales. (Así, pues, no entenderemos
que evento sea un acontecimiento complejo, o quizá prolongado, pese a lo que pueda sugerir
el uso ordinario de esta palabra). Definimos: Sean Pk, P1, ... elementos de una clase de
acontecimientos que difieran únicamente con respecto a los individuos (las posiciones o
regiones espacio-temporales) afectados: llamamos a esta clase <<el evento (P)>>. De acuerdo
con esta definición, diremos, por ejemplo, del enunciado <<acaba de volcarse aquí un vaso de
agua>>, que la clase de los enunciados que son equivalentes a él forma un elemento del
evento <<volcar un vaso de agua>>.
En el modo realista de hablar puede decirse del enunciado singular pk -que representa un
acontecimiento Pk- que tal enunciado afirma que el evento (P) acontece en la posición espacio-
temporal k. Y admitimos que esto quiere decir lo mismo que: <<la clase Pk de los enunciados
singulares equivalentes a pk es un elemento del evento (P)>>.
Aplicamos ahora esta terminología a nuestro problema. Podemos decir de una teoría falsable
que excluye o prohíbe no solamente un acontecimiento, sino, por lo menos, un evento. De este
modo, la clase de los enunciados básicos prohibidos (es decir, de los posibles falsadores de la
teoría) contendrá siempre -si no es una clase vacía- un número ilimitado de enunciados
básicos: pues una teoría no se refiere a individuos como tales. Podemos designar los
enunciados básicos singulares que pertenecen a un evento con la palabra <<homotípicos>>,
con objeto de señalar la analogía entre enunciados equivalentes que describen un
acontecimiento y enunciados homotípicos que describen un evento (típico). Entonces es
posible decir que toda clase no vacía de posibles falsadores de una teoría contiene, al menos,
una clase no vacía de enunciados básicos homotípicos.
Cada uno de los enunciados corresponderá un evento tal, que los distintos enunciados básicos
pertenecientes a él verificarán el enunciado puramente existencial; pero la clase de sus
posibles falsadores es una clase vacía, de modo que a partir de un enunciado existencial no se
sigue nada acerca de los mundos de experiencia posibles (pues no excluye o prohibe ningún
evento). El hecho de que, por el contrario, de todo enunciado básico se siga un enunciado
puramente existencial no puede emplearse como argumento para defender el carácter
empírico de este último: pues de todo enunciado básico se sigue también cualquier tautología
(ya que se sigue de un enunciado arbitrario). En este momento conviene quizá que diga unas
palabras sobre los enunciados contradictorios. Mientras que las tautologías, los enunciados
puramente existenciales y otros enunciados no falsables afirman, como si dijéramos,
demasiado poco acerca de la clase de los enunciados básicos posibles, los enunciados
contradictorios afirman demasiado. A partir de un enunciado contradictorio puede deducirse
válidamente cualquier enunciado; en consecuencia, la clase de sus posibles falsadores es
idéntica a la de todos los enunciados básicos posibles: cualquier enunciado sirve para falsarlo.
(Podría decirse tal vez que esta circunstancia hace visible una ventaja de nuestro método, es
decir, de que tengamos en cuenta los posibles falsadores en lugar de los posibles verificadores:
pues si pudiese verificarse un enunciado verificando sus consecuencias lógicas -o si meramente
se le hiciera probable de esta suerte-, sería de esperar que al aceptar un enunciado básico
cualquiera resultase confirmado, o verificado, o, al menos, probable, todo enunciado
contradictorio.)

Falsabilidad y coherencia
El requisito de la compatibilidad o coherencia desempeña un papel especial entre todos los
que han de satisfacer los sistemas teóricos, o los sistemas axiomáticos. Puede considerársele la
primera condición que ha de cumplir todo sistema teórico, ya sea empírico o no. Para hacer ver
la importancia fundamental de este requisito no basta mencionar el hecho evidente de que hay
que rechazar cualquier sistema que sea contradictorio porque será <<falso>>: pues a menudo
trabajamos con enunciados que, no obstante ser falsos en realidad, nos llevan a resultados
apropiados para ciertos propósitos. Caeremos en la cuenta de la importancia que tiene el
requisito de coherencia si nos percatamos de que los sistemas contradictorios no nos
proporcionan ninguna información, pues podemos deducir de ellos la conclusión que nos
plazca; de modo que no se hace discriminación alguna en los enunciados -calificándolos, bien
de incompatibles, bien de deductibles-, ya que todos son deductibles. En cambio, un sistema
coherente divide el conjunto de todos los enunciados posibles en dos: los que le contradicen y
los que son compatibles con él (entre estos últimos se encuentran las conclusiones que se
pueden deducir del sistema). Es ésta la razón por la que la coherencia constituye el requisito
más general que han de cumplir los sistemas, ya sean empíricos o no lo sean, para que puedan
tener alguna utilidad. Además de ser compatible, todo sistema empírico debe satisfacer otra
condición: tiene que ser falsable. Estas dos restricciones impuestas a los sistemas producen
efectos en gran medida análogos: los enunciados que no satisfacen la condición de coherencia
son incapaces de efectuar discriminación alguna entre dos enunciados cualesquiera (de la
totalidad de todos los enunciados posibles); y los que no satisfacen la condición de falsabilidad
no son capaces de efectuar discriminación entre dos enunciados cualesquiera que pertenezcan
a la totalidad de todos los enunciados empíricos básicos posibles.

El problema de la base empírica

Hemos reducido la cuestión de la falsabilidad de las teorías a la de la falsabilidad de los


enunciados singulares que he llamado enunciados básicos. Pero éstos, ¿qué tipo de enunciados
singulares constituyen? Y, ¿cómo pueden ser falsados?

Las experiencias perceptivas como base empírica: el psicologismo

Muchos aceptan como fuera de toda duda la doctrina de que las ciencias empíricas pueden
reducirse a percepciones sensoriales, y, por tanto, a nuestras experiencias. A pesar de ello, la
suerte de esta doctrina está ligada a la de la lógica inductiva, y en la presente obra la
rechazamos juntamente con ésta. No pretendo negar que hay algo de verdad en la opinión de
que las matemáticas y la lógica se basan en el pensamiento, mientras que las ciencias de
hechos lo hacen en las percepciones de los sentidos; pero este grano de verdad apenas pesa en
el problema epistemológico. Mas, por otra parte, difícilmente se encontrará un problema de la
epistemología que haya sufrido más a consecuencia de la confusión de la psicología con la
lógica que el que nos ocupa ahora: el de la base de los enunciados de experiencia.
Pocos pensadores se han preocupado tan profundamente por el problema de la base
experimental como Fries. Este decía que, si es que no hemos de aceptar dogmáticamente los
enunciados de la ciencia, tenemos que ser capaces de justificarlos; si exigimos que la
justificación se realice por una argumentación razonada, en el sentido lógico de esta expresión,
vamos a parar a la tesis de que los enunciados sólo pueden justificarse por medio de
enunciados; por tanto, la petición de que todos los enunciados estén justificados lógicamente
nos lleva forzosamente a una regresión infinita. Ahora bien; si queremos evitar tanto el peligro
de dogmatismo como el de una regresión infinita, parece que sólo podemos recurrir al
psicologismo; esto es, a la doctrina de que los enunciados no solamente pueden justificarse por
medio de enunciados, sino también por la experiencia perceptiva. Al encontrarse frente a este
trilema -o dogmatismo o regresión infinita, o psicologismo-, Fries (y con él casi todos los
epistemólogos que querían dar razón de nuestro conocimiento empírico) optaba por el
psicologismo: según su doctrina, en la experiencia sensorial tenemos un <<conocimiento
inmediato>> con el cual podemos justificar nuestro <<conocimiento mediato>> (es decir, el
conocimiento expresado en el simbolismo de un lenguaje); y este último incluye, desde luego,
los enunciados de la ciencia.
Ordinariamente no se lleva tan lejos el análisis de este problema. En las epistemologías del
sensualismo y del positivismo se supone, sin más, que los enunciados científicos empíricos
<<hablan de nuestras experiencias>>: pues, ¿cómo podríamos haber llegado a ningún
conocimiento de hechos si no fuera a través de la percepción sensorial?; la mera lucubración
no puede hacer que nadie aumente una jota su conocimiento del mundo de los hechos, y, por
tanto, la experiencia sensorial ha de ser la única <<fuente de conocimiento>> de todas las
ciencias empíricas. Así pues, todo lo que sabemos acerca del mundo de los hechos tiene que
poderse expresar en forma de enunciados acerca de nuestras experiencias; sólo consultando
nuestra experiencia sensorial puede saberse si esta mesa es roja o azul. Por el sentimiento
inmediato de convicción que lleva consigo podemos distinguir el enunciado verdadero -aquél
que está de acuerdo con la experiencia- del falso -que no lo está-. La ciencia no es más que un
intento de clasificar y describir este conocimiento perceptivo, estas experiencias inmediatas de
cuya verdad no podemos dudar: es la presentación sistemática de nuestras convicciones
inmediatas. En mi opinión, esta doctrina se va a pique con los problemas de la inducción y de
los universales: pues no es posible proponer un enunciado científico que no trascienda lo que
podemos saber con certeza <<basándonos en nuestra experiencia inmediata>> (hecho al que
nos referiremos con la expresión <<la trascendencia inherente a cualquier descripción>> -es
decir, a cualesquiera enunciados descriptivos-): todo enunciado descriptivo emplea nombres (o
símbolos, o ideas) universales, y tiene el carácter de una teoría, de una hipótesis. No es posible
verificar el enunciado <<aquí hay un vaso de agua>> por ninguna experiencia con carácter de
observación, por la mera razón de que los universales que aparecen en aquél no pueden ser
coordinados a ninguna experiencia sensorial concreta (toda <<experiencia inmediata>> está
<<dada inmediatamente>> una sola vez, es única); con la palabra <<vaso>>, por ejemplo,
denotamos los cuerpos físicos que presentan cierto comportamiento legal, y lo mismo ocurre
con la palabra <<agua>>. Los universales no pueden ser reducidos a clases de experiencias, no
pueden ser constituidos.

Acerca de las llamadas <<cláusulas protocolarias>>

La tesis que yo llamo <<psicologismo>> subyace -según me parece- a cierta moderna teoría de
la base empírica, aun cuando los defensores de esta teoría no hablan de experiencias ni de
percepciones, sino de <<cláusulas>> -cláusulas que representan experiencias, y a las que
Neurath y Carnap llaman cláusulas protocolarias.
Reininger había mantenido ya una teoría parecida. Su punto de partida lo constituía la
pregunta: ¿en qué reside la correspondencia o acuerdo entre el enunciado de un hecho y la
situación descrita por él?; y llegó a la conclusión de que los enunciados solamente pueden
compararse con enunciados. Según esta tesis, la correspondencia existente entre un enunciado
y un hecho no es más que una correspondencia lógica entre enunciados correspondientes a
niveles de universalidad diferentes: es <<... la correspondencia entre enunciados de elevado
nivel y otros de análogo contenido, y, finalmente, con enunciados que registran experiencias>>
(Reininger llama, a veces, a estos últimos, <<enunciados elementales>>).
Carnap parte de una cuestión algo diferente: su tesis es que todas las investigaciones filosóficas
hablan <<de las formas de hablar>>. La lógica de la ciencia ha de investigar <<las formas del
lenguaje científico>>: no habla de <<objetos>> (físicos), sino de palabras; no de hechos, sino de
cláusulas. Con lo cual Carnap contrapone el <<modo formalizado (correcto) de hablar>> al
modo ordinario, al que llama <<modo material de hablar>>; si se quiere evitar toda confusión
debe emplearse este último solamente en los casos en que sea posible traducirlo al modo
formalizado. Ahora bien; este modo de ver las cosas -al cual puedo avenirme- lleva a Carnap (y,
asimismo, a Reininger) a afirmar que en la lógica de la ciencia no debemos decir que las
cláusulas se someten a contraste comparándolas con las situaciones o con las experiencias:
sólo nos cabe decir que pueden contrastarse comparándolas con otras cláusulas. Con todo, en
realidad, Carnap conserva las ideas fundamentales de la manera psicologista de abordar este
problema: lo único que hace es traducirlas al <<modo formalizado de hablar>>. Dice que las
cláusulas de la ciencia se contrastan <<valiéndose de cláusulas protocolarias>>; pero como
caracteriza a éstas diciendo que son enunciados o cláusulas <<que no necesitan confirmación,
sino que sirven de base para todos los demás enunciados de la ciencia>>, esto equivale a decir
-en el modo ordinario, <<material>>, de hablar- que las cláusulas protocolarias se refieren a lo
<<dado>>, a los <<datos sensoriales>>: describen (según Carnap mismo lo expresa) <<los
contenidos de la experiencia inmediata, o fenómenos; y, por tanto, los hechos cognoscibles
más simples>>. Lo cual hace ver con suficiente claridad que la teoría de las cláusulas
protocolarias no es sino psicologismo traducido al modo formalizado de hablar. Lo mismo es
aplicable, en gran medida, a la tesis de Neurath; éste pide que en toda cláusula protocolaria
aparezca, juntamente con las palabras <<percibe>>, <<ve>> y otras análogas, el nombre del
autor de aquélla: pues, como indica su nombre, las cláusulas protocolarias deberían ser
registros o protocolos de observaciones inmediatas o percepciones. Del mismo modo que
Reininger, Neurath sostiene que los enunciados de contenido perceptivo que registran
experiencias -esto es, las <<cláusulas protocolarias>>- no son irrevocables, sino que, en
ocasiones, pueden ser desechadas: se opone
a la opinión de Carnap (que luego este mismo ha modificado) de que las cláusulas
protocolarias
tengan carácter de últimas y no necesiten confirmación. Pero mientras Reininger expone un
método para contrastar sus enunciados <<elementales>>, en caso de duda, por medio de otros
enunciados (método que consiste en deducir y en contrastar conclusiones), Neurath no obra de
este modo: hace notar solamente que podemos, bien <<borrar>> una cláusula protocolaria
que contradiga a un sistema, <<... bien aceptarla, y modificar el sistema de tal manera que, con
la cláusula añadida, continúe siendo coherente>>. La tesis de Neurath según la cual las
cláusulas protocolarias no son inviolables representa, en mi opinión, un notable adelanto. Pero
si dejamos a un lado la sustitución de las percepciones por los enunciados de percepciones
(que es meramente una traducción de lo anterior en el modo formalizado de hablar), su único
progreso respecto de la teoría -debida a Fries- de la inmediatez del conocimiento perceptivo
consiste en la doctrina de que las cláusulas protocolarias pueden ser revisadas; se trata de un
paso en la dirección debida, pero no lleva a ninguna parte si no le sigue otro paso: pues
necesitamos un conjunto de reglas que limite la arbitrariedad en el <<borrar>> (o bien el
<<admitir>>) cláusulas protocolarias. Neurath omite toda regla en este sentido, y con ello, sin
pensarlo, echa por la horda el empirismo: pues sin tales reglas ya no es posible discriminar
entre los enunciados empíricos y cualesquiera otros. Todo sistema se convierte en defendible si
está permitido (y, según la opinión de Neurath, a todo el mundo le está permitido) <<borrar>>
simplemente una cláusula protocolaria que cause incomodidades: de esta forma no sólo podría
rescatarse cualquier sistema, como ocurre en el convencionalismo, sino que, disponiendo de
una buena reserva de cláusulas protocolarias, podría incluso confirmársele con el testimonio
de testigos que certificaran, o protocolaran, lo que habían visto y oído. Neurath evita una
forma de dogmatismo, pero prepara el camino por el que cualquier sistema arbitrario puede
erigirse en <<ciencia empírica>>. Por tanto, no es fácil ver el papel que desempeñarían las
cláusulas protocolarias en la construcción de Neurath. Según la tesis antigua de Carnap, el
sistema de cláusulas protocolarias era la piedra de toque con la cual había que juzgar toda
aserción de la ciencia empírica: y, por ello, tenían que ser <<irrefutables>>, ya que solamente
ellas podían derogar cláusulas (que no fuesen, a su vez, cláusulas protocolarías, naturalmente).
Pero si se las quita esta función, si ellas mismas son susceptibles de derogación por medio de
teorías, ¿para qué sirven? Puesto que Neurath no trata de resolver el problema de la
demarcación, parece que su idea de las cláusulas protocolarias no es más que una reliquia, un
recuerdo que sobrevive de la opinión tradicional de que la ciencia empírica comienza a partir
de la percepción.

La objetividad de la base empírica

Propongo una perspectiva de la ciencia que es ligeramente diferente de la propugnada por las
diversas escuelas psicologistas: querría distinguir netamente entre ciencia objetiva, por una
parte, y <<nuestro conocimiento>>, por otra.
Estoy dispuesto a admitir que solamente la observación puede proporcionarnos un
<<conocimiento acerca de hechos>>, y que (como dice Hahn) <<solamente nos percatamos de
los hechos por la observación>>; pero este percatarnos, este conocimiento nuestro, no justifica
o fundamenta la verdad de ningún enunciado. Por tanto, no creo que la cuestión que la
epistemología haya de plantear sea <<... ¿en qué se apoya nuestro conocimiento?... o -con más
exactitud-, si he tenido la experiencia S, ¿cómo puedo justificar mi descripción de ella y
defenderla frente a las dudas?>>. Estas preguntas no serán pertinentes, incluso si remplazamos
el término <<experiencia>> por el de <<cláusula protocolaria>>: en mi opinión, lo que la
epistemología ha de preguntar más bien es: ¿cómo contrastamos los enunciados científicos por
medio de sus consecuencias deductivas? (Actualmente formularía esta pregunta del siguiente
modo: ¿Cómo criticamos del mejor modo posible nuestras teorías (o nuestras hipótesis, o
conjeturas), en lugar de defenderlas contra las dudas? Siempre he pensado que contrastar era
un modo de criticar); y, ¿qué tipo de consecuencias podemos escoger para este propósito si es
que, a su vez, tienen que ser contrastables intersubjetivamente?
Actualmente está muy generalizada la aceptación de esta forma de consideración objetiva, no
psicológica, pero en lo que se refiere a enunciados lógicos o tautológicos. Mas no hace mucho
tiempo que se mantenía que la lógica era una ciencia que se ocupaba de los procesos mentales
y de sus leyes (las leyes de nuestro pensamiento); desde este punto de vista no cabía encontrar
otra justificación a la lógica que el supuesto hecho de que simplemente no podíamos pensar de
otro modo: parecía que una inferencia lógica quedaba justificada porque se la experimentaba
como una necesidad del pensamiento, como un sentimiento de compulsión a pensar de un
modo determinado. En el campo de la lógica, esta clase de psicologismo pertenece ya, tal vez,
al pasado; a nadie se le ocurriría justificar la validez de una inferencia lógica -o defenderla
frente a las dudas- escribiendo al margen la siguiente cláusula protocolaria: <<Protocolo: al
revisar hoy esta cadena de inferencias he experimentado un agudísimo sentimiento de
convicción>>.
La situación es muy diferente cuando nos volvemos a los enunciados empíricos de la ciencia:
aquí, todo el mundo cree que están fundamentados en experiencias del tipo de las
percepciones (en el modo formalizado de hablar, en cláusulas protocolarias). Casi todos
considerarían como un caso de psicologismo el intento de basar los enunciados lógicos en
cláusulas protocolarias; mas es curioso que, en lo que se refiere a los enunciados empíricos,
nos encontramos hoy con idéntico tipo de pretensión con el nombre de <<fisicismo>>. Ahora
bien; ya se trate de enunciados de la lógica o de la ciencia empírica, pienso que la situación es
la misma: nuestro conocimiento, que cabe describir vagamente como un sistema de
disposiciones, y que tal vez sea materia de estudio de la psicología, puede estar unido a
sentimientos de creencia o de convicción: quizá en un caso al sentimiento de estar compelido a
pensar de una manera determinada, y en el otro al de <<certidumbre perceptiva>>. Pero todo
esto interesa solamente al psicólogo: no roza siquiera los únicos problemas que interesan al
epistemólogo, como son los de las conexiones lógicas existentes entre los enunciados
científicos.
(Está muy extendida la creencia de que el enunciado <<veo que esta mesa es blanca>> posee
una ventaja radical -desde el punto de vista epistemológico- sobre este otro: <<esta mesa es
blanca>>. Pero con la mira puesta en la evaluación de sus posibles contrastaciones objetivas, el
primer enunciado, que habla de mí, no parece más seguro que el segundo, que habla de la
mesa que está aquí).
Existe sólo un camino para asegurarse de la validez de una cadena de razonamientos lógicos, y
es el de ponerla en la forma más fácil de contrastar: la descomponemos en muchos pasos
pequeños y sucesivos, cada uno de los cuales sea fácilmente comprobable por quien quiera
esté impuesto en la técnica lógica o matemática de transformar cláusulas; si después de hecho
esto alguien sigue planteando dudas, lo único que podemos hacer es pedirle que señale un
error en algún paso de la demostración o que vuelva a estudiarla de nuevo. En el caso de las
ciencias empíricas la situación es poco más o menos la misma. Cualquier enunciado científico
empírico puede ser presentado (especificando los dispositivos experimentales, etc.) de modo
que quienquiera esté impuesto en la técnica pertinente pueda contrastarlo; si como resultado
de la contrastación rechaza el enunciado, no quedaremos satisfechos en caso de que nos hable
de sus sentimientos de duda, o de los de convicción que alberga con respecto a sus
percepciones: lo que tiene que hacer es formular una aserción que contradiga la nuestra, y
darnos instrucciones para contrastarla; dado que no sea capaz de hacer tal cosa, lo único que
podemos hacer es pedirle que vuelva a considerar -quizá con más atención- nuestro
experimento, y que piense de nuevo.
Una afirmación que no sea contrastable, debido a su forma lógica, sólo puede actuar en la
ciencia, en el mejor de los casos, como estímulo: sugiriendo un problema.
A la ciencia puede considerársela desde diversos puntos de vista, no solamente desde el de la
epistemología: así, la podemos mirar como un fenómeno biológico o sociológico; y, en este
caso, se la puede describir como una herramienta, un aparato tal vez comparable a los de
nuestra maquinaria industrial. Cabe fijarse en ella como medio de producción: como la última
palabra en la <<producción en rodeo>>; incluso desde este punto de vista, la ciencia no se
encuentra más ligada a <<muestra experiencia>> que otro aparato o medio de producción
cualquiera. Hasta podemos apreciarla como algo que sirve para satisfacer nuestras necesidades
intelectuales: tampoco de esta forma difiere nada -en principio- su conexión con nuestra
experiencia de la que tiene otra estructura objetiva cualquiera. Sin duda, no es inexacto decir
que la ciencia es <<un instrumento>> cuya finalidad es <<predecir experiencias futuras a partir
de otras inmediatas o dadas, e incluso gobernar aquéllas hasta donde sea posible>>. Pero no
creo que todo este hablar de experiencias contribuya a aclarar la situación: apenas está más
justificado, diríamos, que caracterizar la torre de un pozo petrolífero diciendo que su finalidad
consiste en proporcionarnos ciertas experiencias: no petróleo, sino la vista y el olor del
petróleo; no dinero, sino más bien la sensación de tener dinero.

Los enunciados básicos

Los enunciados básicos, en la teoría epistemológica que yo defiendo, son necesarios para
decidir si a una teoría ha de llamársele falsable, esto es, empírica, así como para corroborar las
hipótesis falsadoras y, por tanto, para falsar teorías. Por consiguiente, los enunciados básicos
tienen que satisfacer las siguientes condiciones: a) no se podrá deducir enunciado básico
alguno a partir de un enunciado universal no acompañado de condiciones iniciales (De ningún
enunciado total puro -digamos, <<todos los cisnes son blancos>>- se sigue nada observable.
Esto es obvio si consideramos el hecho de que <<todos los cisnes son blancos>> y <<todos los
cisnes son negros>> no se contradicen, sino que meramente implican que no hay cisnes: lo
cual, sin duda, no es un enunciado de observación, ni siquiera uno que pueda ser
<<verificado>>. (Un enunciado unilateralmente falsable como <<todos los cisnes son blancos>>
tiene la misma forma lógica que <<no hay cisnes>>, ya que es equivalente a <<no hay cisnes no
blancos>>). Ahora bien; si esto se admite se verá inmediatamente que los enunciados
singulares que pueden deducirse de enunciados puramente universales no pueden ser
enunciados básicos. Me refiero a los que tienen la forma <<si hay un cisne en el lugar k,
entonces hay un cisne blanco en el lugar k>> (o bien, <<en k, o bien no hay ningún cisne o hay
un cisne blanco>>): nos damos cuenta inmediatamente de que estos <<enunciados
ejemplificadores>> no son enunciados básicos, ya que no pueden desempeñar el papel de
enunciados de contraste (o sea, de posibles falsadores), que es justamente el que han de
desempeñar los enunciados básicos. Si aceptásemos los enunciados ejemplificadores como
enunciados de contraste, obtendríamos para toda teoría (y, por ello, para <<todos los cisnes
son blancos>> y para <<todos los cisnes son negros>>) un número aplastante de verificaciones
-en realidad, un número infinito si aceptamos el hecho de que la inmensa mayoría del mundo
está desprovista de cisnes. Puesto que los <<enunciados ejemplificadores>> son deductibles de
enunciados universales, sus negaciones tienen que ser posibles falsadores, y, por tanto, es
posible que sean enunciados básicos; y viceversa, los enunciados ejemplificadores tendrán,
pues, la forma de enunciados básicos negados. Es interesante advertir que los enunciados
básicos han de tener mayor contenido informativo que sus negaciones ejemplificadoras; lo cual
quiere decir que el contenido de los enunciados básicos excede de su probabilidad lógica); y b)
un enunciado universal y un enunciado básico han de poder contradecirse mutuamente. La
condición b) puede satisfacerse únicamente si es posible deducir la negación de un enunciado
básico de una teoría a la que éste contradiga; y a partir de esta condición y de la a) se sigue que
todo enunciado básico debe tener una forma lógica tal que su negación no pueda ser, a su vez,
un enunciado básico.
Nos hemos tropezado ya con enunciados cuya forma lógica es diferente de la que tienen sus
negaciones; son los enunciados universales y los existenciales: unos son negación de los otros,
y difieren en su forma lógica. Es posible construir enunciados singulares de modo parecido. Así,
cabe decir que el enunciado <<hay un cuervo en la región espacio-temporal k>> tiene diversa
forma lógica -y no sólo distinta forma lingüística- que este otro: <<no hay ningún cuervo en la
región espacio-temporal k>>. Podemos llamar <<enunciado existencial singular>>, o
<<enunciado de 'hay' singular>> a todo enunciado de la forma, <<hay tal y cual cosa en la
región k>>, o de la forma <<tal y cual evento acontece en la región k>>; y podríamos llamar
<<enunciado inexistencial singular>> o <<enunciado de 'no hay' singular>> a todo enunciado
que se obtenga al negar uno de aquéllos, es decir, a cualquiera de la forma <<no hay tal y cual
cosa en la región k>> o de la forma <<ningún evento de tal y cual tipo acontece en la región
k>>. Podemos establecer ahora la siguiente regla: los enunciados básicos tienen la forma de
enunciados existenciales singulares. Esto quiere decir que dichos enunciados satisfarán la
condición a), ya que no es posible deducir un enunciado existencial singular de uno
estrictamente universal, esto es, de un enunciado inexistencial estricto; también han de
satisfacer la condición b ), como puede advertirse teniendo en cuenta que, a partir de todo
enunciado existencial singular, se puede deducir otro puramente existencial sin más que omitir
la referencia a una región espacio-temporal individual, y que -como hemos visto- todo
enunciado puramente existencial es muy capaz de contradecir a una teoría.
Conviene observar que la conjunción de dos enunciados básicos, d y r, que no se contradigan
mutuamente, es, a su vez, un enunciado básico. A veces, podemos incluso obtener un
enunciado básico por adjunción de un enunciado de este tipo y otro que no lo sea: por
ejemplo, podemos formar la conjunción del enunciado básico r, <<hay una aguja indicadora en
el lugar k>>, con el enunciado inexistencial singular p, <<no hay ninguna aguja indicadora en
movimiento en el lugar k>>: pues es evidente que la conjunción r . ¬p (<<r y no p>>) de estos
dos enunciados equivale al enunciado existencial singular <<hay una aguja indicadora en
reposo en el lugar k>>. Como consecuencia, si se nos dan la teoría t y las condiciones iniciales r
-tales que de una y otras se deduzca la predicción p-, entonces el enunciado r . p será un
falsador de la teoría, y, por tanto, un enunciado básico. (Por otra parte, el enunciado
condicional <<r -> p>>, o sea, <<si r entonces p>>, carece del carácter de básico tanto como la
negación p, ya que es equivalente a la negación de un enunciado básico: a saber, a la negación
de r . p).
Estos son los requisitos formales de los enunciados básicos, y los satisfacen todos los
enunciados existenciales singulares. Además de ellos, todo enunciado básico tiene que cumplir
también un requisito material (un requisito referente al evento que -según nos dice el
enunciado básico- está ocurriendo en el lugar k): el evento ha de ser <<observable>>, es decir,
se requiere que los enunciados básicos sean contrastables intersubjetivamente por
<<observación>>; puesto que estos enunciados son singulares, esta condición sólo puede
referirse a observadores convenientemente situados en el espacio y el tiempo.
Sin duda, parecerá que al exigir la observabilidad he terminado por permitir que el
psicologismo se deslice suavemente en el interior de mi teoría. Pero no es así. Desde luego,
cabe interpretar el concepto de evento observable en sentido psicologista; pero yo lo estoy
empleando en un sentido tal que se le podría remplazar perfectamente por <<un evento que
concierne la posición y el movimiento de cuerpos físicos macroscópicos>>; o bien podemos
-con mayor precisión- establecer que todo enunciado básico, bien ha de ser un enunciado
acerca de posiciones relativas de cuerpos físicos, bien será equivalente a cierto enunciado
básico de este tipo <<mecánico>> o <<materialista>>. (El hecho de que una teoría que sea
contrastable intersubjetivamente será también contrastable intersensorialmente es lo que
permite estipular
esta condición: pues tal hecho quiere decir que las contrastaciones en que intervenga la
percepción por medio de uno de nuestros sentidos pueden ser remplazadas, en principio, por
otras en que intervengan otros sentidos.) Así pues, la acusación de que al apelar a la
observabilidad he vuelto a admitir subrepticiamente el psicologismo no tendrá mayor peso que
la de que he admitido el mecanicismo o el materialismo; lo cual hace ver que mi teoría es, en
realidad, bastante neutral, y que no debería colgársele ninguno de estos rótulos. Digo todo
esto exclusivamente para salvar al término <<observable>> -tal y como yo lo empleo- del
estigma de psicologismo. (Las observaciones y las percepciones pueden ser psicológicas, pero
la observabilidad no lo es.) No tengo intención de definir el término <<observable>>, o
<<evento observable>>, aunque estoy dispuesto a elucidarlo por medio de ejemplos
psicológicos y mecánicos; creo que debería introducirse como término no definido que
adquiere suficiente precisión en su uso: es decir, como un concepto primitivo cuyo empleo ha
de aprender el epistemólogo, lo mismo que tiene que aprender el del término <<símbolo>>, o
que el físico ha de hacer lo mismo con el término <<punto-masa>>).
Los enunciados básicos son, por tanto, en el modo material de hablar, enunciados que afirman
que un evento observable acontece en una región individual del espacio y el tiempo.

La relatividad de los enunciados básicos. Solución del trilema de Fries

Siempre que una teoría se someta a contraste, ya resulte de él su corroboración o su falsación,


el proceso tiene que detenerse en algún enunciado básico que decidamos aceptar: si no
llegamos a decisión alguna a este respecto, y no aceptamos, por tanto, un enunciado básico,
sea el que sea, la contrastación no lleva a ninguna parte. Pero considerando la cosa desde un
punto de vista lógico, nunca la situación es tal que nos fuerce a hacer alto en este enunciado
básico concreto en lugar de en aquel otro, o bien a abandonar enteramente la contrastación.
Pues todo enunciado básico puede ser sometido a contraste, a su vez, utilizando como piedra
de toque cualquiera de los enunciados básicos que puedan deducirse de él valiéndose de una
teoría, bien
sea la que se está contrastando u otra cualquiera: proceso que no tiene un final proveniente de
su propia naturaleza. Así pues, si es que la contrastación ha de llevarnos a algún resultado, no
queda otra opción que detenernos en un punto u otro y decir que estamos satisfechos por el
momento. Es fácil advertir que, de este modo, llegamos a un procedimiento que nos hace
pararnos precisamente en un tipo de enunciados que sea particularmente fácil de contrastar;
pues lo que hemos dicho significa que nos detenemos a la altura de unos enunciados acerca de
cuya aceptación o rechazo es probable que los investigadores se pongan de acuerdo: si éste no
se logra, continuarán simplemente la contrastación, o bien empezarán de nuevo a realizarla
desde el principio; y si tampoco conduce a ningún resultado este nuevo proceso, podremos
decir tal vez que los enunciados en cuestión no eran contrastables intersubjetivamente, o que,
a fin de cuentas, estábamos ocupándonos con eventos que no eran observables. Si un día ya no
fuese posible lograr que los investigadores se pusieran de acuerdo acerca de un enunciado
básico, esto equivaldría a un fracaso del lenguaje como medio de comunicación universal:
equivaldría a una <<confusión de las lenguas>> en la torre de Babel, y los descubrimientos
científicos quedarían reducidos al absurdo; en esta renovada Babel, el imponente edificio de la
ciencia pronto quedaría reducido a unas ruinas.
Exactamente del mismo modo que una demostración lógica ha tomado forma satisfactoria
cuando se ha superado la labor dificultosa y todo puede comprobarse con facilidad, después de
que la ciencia ha llevado a cabo su tarea de deducción o de explicación nos detenemos al llegar
a enunciados básicos fácilmente contrastables. Pero los enunciados acerca de experiencias
personales -esto es, las cláusulas protocolarias- sin duda no son de este tipo, y, por ello, son
poco apropiadas para servir de enunciados en los cuales pararnos. Desde luego, utilizamos
registros o protocolos, tales como certificados de contrastaciones emitidos por departamentos
de investigación científica o industrial; pero, siempre pueden ser sometidos otra vez a examen
si surge la necesidad de ello. Pero, en general nos detenemos en enunciados fácilmente
contrastables, y no -como recomienda Carnap- en cláusulas de percepción o protocolarias: o
sea, no nos detenemos precisamente en éstas porque la contrastación intersubjetiva de
enunciados acerca de percepciones es relativamente complicada y difícil.
¿Qué postura adoptamos ahora en lo que se refiere al trilema de Fries, o sea, a la elección
entre el dogmatismo, la regresión infinita y el psicologismo? Hay que reconocer que los
enunciados básicos en los que nos detenemos, que decidimos aceptar como satisfactorios y
suficientemente contrastados, tienen el carácter de dogmas; pero únicamente en la medida en
que desistamos de justificarlos por medio de otros argumentos (o de otras contrastaciones).
Mas este tipo de dogmatismo es innocuo, ya que en cuanto tengamos necesidad de ello
podemos continuar contrastando fácilmente dichos enunciados. Admito que de esta suerte la
cadena deductiva es, en principio, infinita; sin embargo, este tipo de <<regresión infinita>>
también es innocuo, ya que en nuestra teoría no se pretende probar ningún enunciado por
medio de ella. Y, finalmente, en lo que respecta al psicologismo: admito también que la
decisión de aceptar un enunciado básico y darse por satisfecho con él tiene una conexión
causal con nuestras experiencias, especialmente con nuestras experiencias perceptivas; pero
no tratamos de justificar los enunciados básicos por medio de ellas: las experiencias pueden
motivar una decisión, y, en consecuencia, la adopción o el rechazo de un enunciado, pero
ningún enunciado básico puede quedar justificado por ellas.

Teoría y experimento
Los enunciados básicos se aceptan como resultado de una decisión o un acuerdo, y desde este
punto de vista son convenciones. Por otra parte, se llega a las decisiones siguiendo un proceder
gobernado por reglas; y entre éstas tiene especial importancia la que nos dice que no debemos
aceptar enunciados básicos esporádicos -es decir, que no estén en conexión lógica con otros
enunciados- y que, por el contrario, hemos de admitir enunciados básicos en el curso de
nuestra contrastación de teorías: cuando suscitamos cuestiones esclarecedoras acerca de
éstas, cuestiones que tienen que contestarse gracias a la admisión de enunciados de aquel
tipo.
Así pues, la situación real es bastante diferente de la que era visible para el empirista ingenuo,
o para el creyente en la lógica inductiva. Este cree que empezamos por recopilar y ordenar
nuestras experiencias, y que así vamos ascendiendo por la escalera de la ciencia; o bien -para
emplear el modo formalizado de hablar-, que si queremos edificar una ciencia tenemos que
recoger primero cláusulas protocolarias. Pero si se me ordena <<registre lo que experimenta
ahora>>, apenas sé cómo obedecer a esta orden ambigua: ¿he de comunicar que estoy
escribiendo?; ¿que oigo llamar un timbre, vocear a un vendedor de periódicos o el hablar
monótono de un altavoz?; ¿o he de informar, tal vez, que tales ruidos me llenan de irritación?
Incluso si fuera posible obedecer semejante orden, por muy rica que fuese la colección de
enunciados que se reuniese de tal modo, jamás vendría a constituirse en una ciencia: toda
ciencia necesita un punto de vista y problemas teóricos.
Por regla general, se llega a un acuerdo sobre la aceptación o rechazo de enunciados básicos
con ocasión de aplicar una teoría: en realidad, el acuerdo forma parte de la aplicación que
consiste en someter a contraste la teoría. El ponerse de acuerdo acerca de ciertos enunciados
básicos es, lo mismo que otros modos de aplicación, ejecutar una acción con una finalidad
-guiado por consideraciones teóricas diversas.
El lógico inductivo que cree que la ciencia parte de percepciones elementales esporádicas tiene
que quedarse estupefacto ante semejantes coincidencias regulares: tienen que parecerle
completamente <<accidentales>>, pues como está en la opinión de que las teorías no son sino
enunciados de coincidencias regulares, no le está permitido explicar la regularidad por medio
de teorías. Pero, de acuerdo con la situación a que hemos llegado ahora, las conexiones
existentes entre nuestras diversas experiencias son explicables a base de las teorías que nos
ocupamos en contrastar, y deductibles de ellas. Pero, sin duda alguna, aún queda otra cuestión
(que es patente no puede responderse por medio de teoría falsable alguna, y es, por tanto,
<<metafísica>>): ¿cómo es que acertamos tan frecuentemente con las teorías que construimos,
o sea, cómo es que hay <<leyes naturales>>?
Todas estas consideraciones importan mucho para la teoría epistemológica del experimento. El
científico teórico propone ciertas cuestiones determinadas al experimentador, y este último,
con sus experimentos, trata de dar una respuesta decisiva a ellas, pero no a otras cuestiones:
hace cuanto puede por eliminar estas últimas (y de aquí la importancia que puede tener la
independencia relativa de los subsistemas de una teoría). Así pues, lleva a cabo sus
contrastaciones <<lo más sensibles que puede>> con respecto a una sola cuestión <<pero lo
más insensibles que puede con respecto a todas las demás cuestiones enlazadas con ella ...
Una parte de su tarea consiste en cribar todas las posibles fuentes de error>> Pero sería una
equivocación creer que el experimentador procede de este modo <<con objeto de facilitar el
trabajo del teórico>>, o quizá para proporcionar a este último una base en que apoyar
generalizaciones inductivas. Por el contrario, el científico teórico tiene que haber realizado
mucho antes su tarea,
o, al menos, la parte más importante de ella: la de formular su pregunta lo más netamente
posible; por tanto, es él quien indica el camino al experimentador. Pero incluso éste no está
dedicado la mayoría de las veces a hacer observaciones exactas, pues también su tarea es, en
gran medida, de tipo teórico: la teoría campea en el trabajo experimental, desde que se
establecen los planes iniciales hasta que se dan los últimos toques en el laboratorio. (Las
observaciones -y, más todavía, los enunciados de observaciones y los de resultados
experimentales- son siempre interpretaciones de los hechos observados, es decir, que son
interpretaciones a la luz de teorías. Por ello es tan engañosamente fácil encontrar
verificaciones de una teoría, y tenemos que adoptar una actitud sumamente crítica con
respecto a nuestras teorías si no queremos argumentar circularmente: precisamente la actitud
de tratar de falsarlas). Esto es perfectamente visible en algunos casos en que el teórico logra
predecir un efecto observable que se llega a producir experimentalmente más tarde. Aún más
conspicuos -tal vez- son los casos en que los experimentos han desempeñado un papel
eminente en el progreso de la teoría: en estas ocasiones, lo que fuerza al teórico a buscar una
teoría mejor es casi siempre la falsación experimental de una teoría que hasta el momento
estaba aceptada y corroborada: es decir, el resultado de las contrastaciones guiadas por la
teoría. Naturalmente, también se dan descubrimientos accidentales, pero son relativamente
raros: Mach habla con razón en semejantes casos de una <<corrección de las opiniones
científicas por circunstancias accidentales>> (con lo cual reconoce, a pesar suyo, la importancia
de las teorías).
Quizá podamos responder ahora a la pregunta acerca de cómo y por qué aceptamos una teoría
con preferencia a otras. Ciertamente, tal preferencia no se debe a nada semejante a una
justificación experimental de los enunciados que componen una teoría, es decir, no se debe a
una reducción lógica de la teoría a la experiencia. Elegimos la teoría que se mantiene mejor en
la competición con las demás teorías, la que por selección natural muestra ser más apta para
sobrevivir; y ésta será la que no solamente haya resistido las contrastaciones más exigentes,
sino que sea, asimismo, contrastable del modo más riguroso. Una teoría es una herramienta
que sometemos a contraste aplicándola, y que juzgamos si es o no apropiada teniendo en
cuenta el resultado de su aplicación. Desde un punto de vista lógico, el contraste de una teoría
depende de ciertos enunciados básicos, que, a su vez, se aceptan o rechazan en virtud de
nuestras decisiones. Así pues, son las decisiones las que determinan el destino de las teorías.
Teniendo en cuenta esto, mi respuesta a la pregunta sobre cómo escogemos una teoría se
parece a la dada por el convencionalista; y, como él, digo que la elección viene determinada, en
parte, por consideraciones de utilidad. No obstante tal cosa, hay una enorme diferencia entre
sus opiniones y las mías, pues yo mantengo que lo que caracteriza al método científico es
precisamente lo siguiente: que la convención o decisión no determina inmediatamente que
aceptemos ciertos enunciados universales, sino que -por el contrario- actúa en nuestra
aceptación de los enunciados singulares (esto es, de los enunciados básicos).
Para el convencionalista, su principio de sencillez gobierna la aceptación de enunciados
universales: escoge el sistema más sencillo. Frente a ello, yo propongo que se tenga en cuenta
antes que nada lo exigente de las contrastaciones (esto último se encuentra en relación muy
estrecha con lo que yo llamo <<sencillez>>, pero mi idea de ésta se aparta mucho de la del
convencionalista; y sostengo que lo que, en última instancia, decide la suerte que ha de correr
una teoría es el resultado de una contrastación, es decir, un acuerdo acerca de enunciados
básicos. Juntamente con el convencionalista, entiendo que la elección de una teoría
determinada es un acto que ha de llevarse a cabo, un asunto práctico; pero esta elección, para
mí, se encuentra bajo la influencia decisiva de la aplicación de dicha teoría y de la aceptación
de los enunciados básicos relacionados con tal aplicación; mientras que para el
convencionalista lo que decide son, ante todo, motivos estéticos.
Así pues, discrepo del convencionalista al mantener que los enunciados que se deciden por
medio de un acuerdo no son universales, sino singulares; y del positivista en tanto que
sostengo que los enunciados básicos no son justificables por nuestras experiencias inmediatas,
sino que -desde un punto de vista lógico- se aceptan por un acto, por una decisión libre (que,
mirada psicológicamente, bien puede considerarse como una reacción con una finalidad y bien
adaptada a las circunstancias).
Quizá sea posible aclarar la importante distinción hecha entre una justificación y una decisión
-es decir, una decisión a que se llega de acuerdo con un proceder gobernado por reglas-
ayudándose de la analogía existente con un procedimiento de gran antigüedad: el conocer de
una causa por un jurado. El veredicto del jurado (vere dictum = dicho verdaderamente), como
el del experimentador, es una respuesta a una cuestión de hechos, que ha de proponerse al
jurado en la forma más tajante y definida posible. Pero tanto la cuestión que se pregunta como
la forma en que se presenta dependerán, en gran medida, de la situación legal, esto es, del
sistema vigente de leyes penales (que corresponde al sistema de teorías). Al tomar una
decisión, el jurado acepta, por acuerdo, un enunciado acerca de un acontecimiento fáctico
(como si fuese un enunciado básico); la importancia de tal decisión radica en el hecho de que,
a partir de ella -juntamente con los enunciados universales del sistema (de leyes penales)-, es
posible deducir ciertas consecuencias; dicho de otro modo: la decisión forma la base para la
aplicación del sistema: el veredicto desempeña el papel de un <<enunciado de hechos
verdadero>>. Pero es patente que no hay necesidad de que sea verdadero meramente por
haberlo aceptado el jurado, lo cual queda reconocido por la regla que permite revocar o revisar
un veredicto.
Se llega al veredicto siguiendo un procedimiento gobernado por reglas; éstas se basan en
ciertos principios fundamentales destinados primordialmente -si no exclusivamente- a
descubrir la verdad objetiva. Estos principios permiten, a veces, que entren en juego no sólo las
convicciones subjetivas, sino incluso cierta parcialidad subjetiva; pero aunque no tengamos en
cuenta tales aspectos especiales de este procedimiento tan antiguo, e imaginemos que el
procedimiento a que nos referimos se basa únicamente en el intento de hacer que se descubra
la verdad objetiva, el veredicto del jurado continuará sin justificar jamás la verdad que afirma, y
sin dar pruebas de ella. Tampoco puede atenderse a las convicciones subjetivas de los
miembros del jurado para justificar la decisión tomada; aunque, naturalmente, existe una
estrecha conexión causal entre aquéllas y ésta: conexión que puede representarse por medio
de leyes psicológicas, por lo cual las convicciones mencionadas pueden llamarse los
<<motivos>> de la decisión. El hecho de que las convicciones no sean justificaciones tiene una
gran relación con el hecho de que el procedimiento que emplea el jurado puede regularse por
medio de reglas diversas (por ejemplo, las de mayoría simple o ponderada): lo cual hace ver
que la relación existente entre las convicciones de los miembros del jurado y el veredicto
puede ser sumamente variada. Frente a lo que ocurre con el veredicto del jurado, el fallo del
juez está <<razonado>>: necesita una justificación, y la incluye. El juez trata de justificarlo por
medio de otros enunciados -o de deducirlo lógicamente de ellos-: a saber, los enunciados del
sistema legal, combinados con el veredicto (que desempeña el papel de las condiciones
iniciales); y de ahí que sea posible apelar frente a un fallo, apoyándose en razones lógicas. Por
el contrario, sólo cabe apelar frente a la decisión de un jurado poniendo en tela de juicio si se
ha llegado a ella de acuerdo con las reglas de procedimiento aceptadas: o sea, desde un punto
de vista formal, pero no en cuanto a su contenido.
La analogía entre este procedimiento y aquél por el que decidimos acerca de enunciados
básicos es muy clara, y sirve para iluminar, por ejemplo, su relatividad y el modo en que
dependen de las cuestiones planteadas por la teoría. Cuando un jurado conoce acerca de una
causa, sin duda alguna sería imposible aplicar la <<teoría>> si no existiese primero un veredicto
al que se ha llegado por una decisión; mas, por otra parte, éste se obtiene por un
procedimiento que está de acuerdo con una parte del código legal general (y, por tanto, lo
aplica). El caso es enteramente análogo al de los enunciados básicos: aceptarlos es un modo de
aplicar un sistema teórico, y precisamente esta aplicación es la que hace posibles todas las
demás aplicaciones del mismo.

La base empírica de la ciencia objetiva, pues, no tiene nada de <<absoluta>> (Weyl escribe: <<a
mi parecer, la pareja de opuestos subjetivo-absoluto y objetivo-relativo contiene una de las más
profundas verdades epistemológicas que es posible extraer del estudio de la Naturaleza.
Quienquiera que desee lo absoluto habrá de conformarse también con la subjetividad -lo
egocéntrico-, y todo el que anhela objetividad no puede evitar el problema del relativismo>>. Y
antes leemos: <<lo que se experimenta inmediatamente es subjetivo y absoluto; por otra parte,
el mundo objetivo, que la ciencia natural trata de precipitar en una pura forma cristalina es
relativo>>. Reininger escribe: <<La metafísica como ciencia es imposible… ya que, si bien lo
absoluto se experimenta verdaderamente y, por esta razón, puede sentirse de modo intuitivo,
con todo, se niega a ser expresado mediante palabras. Pues, “si habla el alma, ay, ya no es el
alma quien habla”>>); la ciencia no está cimentada sobre roca: por el contrario, podríamos
decir que la atrevida estructura de sus teorías se eleva sobre un terreno pantanoso, es como un
edificio levantado sobre pilotes. Estos se introducen desde arriba en la ciénaga, pero en modo
alguno hasta alcanzar ningún basamento natural o <<dado>>, cuando interrumpimos nuestros
intentos de introducirlos hasta un estrato más profundo, ello no se debe a que hayamos
topado con terreno firme: paramos simplemente porque nos basta que tengan firmeza
suficiente para soportar la estructura, al menos por el momento.

Notas sobre inducción y demarcación

En el Circulo de Viena se debatían mis tesis bajo la interpretación equivocada de que yo


abogaba por el remplazamiento de un criterio de sentido, el de la verificabilidad, por otro, el de
la falsabilidad: mientras que, en realidad, yo no me ocupaba del problema del sentido, sino del
de la demarcación.

Un criterio del carácter empírico de los sistemas teóricos

1) Cuestión preliminar. El problema de Hume de la inducción -la cuestión de la validez de las


leyes naturales- procede de una contradicción aparente entre el principio del empirismo (el de
que sólo la <<experiencia>> puede decidir sobre la verdad o falsedad de enunciados fácticos) y
el haberse dado cuenta Hume de que los razonamientos inductivos (o generalizaciones) no
tienen validez. Schlick, influido por Wittgenstein, cree que sería posible resolver esta
contradicción adoptando el supuesto de que las leyes naturales <<no son auténticos
enunciados>>, sino <<reglas para la formación o transformación de enunciados>>: esto es, que
sean un tipo particular de <<pseudoenunciados>>. Este intento de resolver el problema
comparte con todos los intentos anteriores -o sea, con el apriorismo, el convencionalismo, etc.-
una suposición carente de fundamente: la de que todos los enunciados auténticos han de ser,
en principio, enteramente decidibles, es decir, verificables o falsables; o dicho con más
precisión- que para todo auténtico enunciado han de ser lógicamente posibles una verificación
empírica (definitiva) y una falsación empírica (también definitiva). Si eliminamos tal asunción
cabe resolver de un modo sencillo la contradicción que constituye el problema de la inducción:
podemos interpretar de un modo perfectamente coherente las leyes naturales -o las teorías-
como auténticos enunciados que son parcialmente decidibles: esto es, que por razones lógicas
no son verificables, sino que sólo son falsables, de un modo asimétrico; pues serían enunciados
que se contrastan sometiéndolos a intentos sistemáticos de falsarlos.
La solución que aquí propongo tiene la ventaja de preparar también el camino para resolver el
segundo -y más fundamental- de los dos problemas de la teoría del conocimiento (o de la
teoría del método empírico):
2) Problema principal. Este es el problema de la demarcación (el problema kantiano de los
límites del conocimiento científico), que puede definirse como el de encontrar un criterio
mediante el cual podamos distinguir entre aserciones que pertenecen a las ciencias empíricas y
las que podríamos llamar <<metafísicas>>. Según una solución propuesta por Wittgenstein, se
logra la demarcación buscada mediante la idea de <<significado>> o <<sentido>>: toda
proposición con sentido -o, con significado- tiene que ser una función veritativa de
proposiciones <<atómicas>>, esto es, ha de podérsela reducir lógicamente de un modo
completo a enunciados singulares de observación (o ha de ser deductible de ellos). Si un
supuesto enunciado resulta no poderse reducir del modo dicho, entonces es <<carente de
sentido>>, <<absurdo>>, <<metafísico>> o una <<pseudoproposición>>. Así pues, la metafísica
sería un palabreo absurdo y carente de sentido. Podría parecer que los positivistas, al trazar
esta línea de demarcación, han conseguido acabar con la metafísica de una manera más
completa que los antimetafísicos anteriores; sin embargo, no solamente ocurre que han
aniquilado la metafísica, sino que lo mismo han hecho con la ciencia natural: pues las leyes de
la Naturaleza son tan poco reducibles a enunciados de observación como los discursos
metafísicos (recuérdese el problema de la inducción); si se aplicase consecuentemente el
criterio de sentido de Wittgenstein, cobraría el aspecto de <<pseudoproposiciones carentes de
sentido>>, y, por tanto, el de algo <<metafísico>>.
Puede eliminarse el dogma del significado o del sentido -y los pseudoproblemas a que ha dado
lugar- si adoptamos el criterio de falsabilidad (o sea, el de una decidibilidad -al menos-
unilateral o asimétrica) como criterio de demarcación. Según éste, los enunciados y los
sistemas de enunciados nos transmiten una información acerca del mundo empírico solamente
si son capaces de chocar con la experiencia; o, con mayor precisión, sólo si pueden ser
contrastados sistemáticamente: es decir, si son susceptibles de ser sometidos a contraste (de
acuerdo con una <<decisión metodológica>>) de tal modo que pudieran quedar refutados. De
esta forma, el reconocimiento de los enunciados unilateralmente decidibles no sólo nos
permite resolver el problema de la inducción (obsérvese que únicamente existe un tipo de
razonamiento que se mueva en dirección inductiva: el modus tollens, que es deductivo), sino,
asimismo, el problema más fundamental de la demarcación, que ha dado origen a casi todos
los demás de la epistemología. Pues nuestro criterio de falsabilidad ha discriminado con
suficiente precisión los sistemas teóricos de las ciencias empíricas de los de la metafísica (y de
los sistemas convencionalistas y los tautológicos), sin aseverar, por ello, la carencia de sentido
de la metafísica (la cual, desde un punto de vista histórico, puede observarse que ha sido la
fuente de que han brotado las teorías de las ciencias empíricas).
Adaptando una observación muy conocida de Einstein (<<En la medida en que los enunciados
de la geometría hablan acerca de la realidad, no son seguros, y en la medida en que son
seguros no hablan acerca de la realidad>>), podríamos caracterizar las ciencias empíricas, por
tanto, como sigue: En la medida en que un enunciado científico habla acerca de la realidad,
tiene que ser falsable; y en la medida en que no es falsable, no habla acerca de la realidad.
Mediante un análisis lógico podría mostrarse que el papel de la falsabilidad (unilateral) como
criterio de la ciencia empírica es formalmente análogo al de la compatibilidad para la ciencia
en general: un sistema incompatible (o contradictorio) no es capaz de escoger un subconjunto
propio del conjunto de todos los enunciados posibles, y -análogamente- un sistema infalsable
no puede escoger un subconjunto propio de entre el conjunto de todos los posibles enunciados
<<empíricos>> (o sea, de todos los enunciados sintéticos singulares).

Sobre las llamadas <<lógica de la inducción>> y <<probabilidad de hipótesis>>

Una teoría satisfactoria de los se llama tradicionalmente <<inducción>> tiene que llevar, por
razones puramente lógicas -y ello lo mismo si emplea la lógica clásica como si emplea la
probabilitaria-, o a una regresión infinita, o a apoyarse en un principio apriorístico de inducción
(es decir, a un principio sintético que no pueda ser contrastado empíricamente).
Si distinguimos, como hace Reichenbach, entre un <<procedimiento de encontrar>> y un
<<procedimiento de justificar>> (una hipótesis), entonces hemos de decir que no es posible
reconstruir racionalmente el primero. Pero, en mi opinión, el análisis del procedimiento de
justificar las hipótesis no nos conduce a nada que podamos decir que pertenece a una lógica
inductiva; pues la teoría de la inducción es superflua, y carece de función en una lógica de la
ciencia. Nunca es posible <<justificar>> o verificar las teorías científicas. Mas, a pesar de ello,
una hipótesis determinada, A, puede aventajar bajo ciertas circunstancias a otra, B: bien sea
porque B esté en contradicción con ciertos resultados de observación -y, por tanto, quede
<<falsada>> por ellos-, o porque sea posible deducir más predicciones valiéndose de A que de
B. Lo más que podemos decir de una hipótesis es que hasta el momento ha sido capaz de
mostrar su valía, y que ha tenido más éxito que otras: aun cuando, en principio, jamás cabe
justificarla, verificarla ni siquiera hacer ver que sea probable. Esta evaluación de la hipótesis se
apoya exclusivamente en las consecuencias deductivas (predicciones) que pueden extraerse de
ella: no se necesita ni mencionar la palabra <<inducción>>.
Es fácil explicar históricamente el error que suele cometerse en esta materia: se consideraba
que la ciencia era un sistema de conocimientos (esto es, de conocimientos todo lo seguros que
se pudiera), y se suponía que la <<inducción>> garantizaba su verdad; más tarde se vio
claramente que no es posible llegar a una verdad absolutamente segura, y se trató de poner en
su lugar por lo menos una especie de certidumbre o de verdad atenuadas -es decir, la
<<probabilidad>>. Pero el hablar de la <<probabilidad>> en lugar de hacerlo de la <<verdad>>
no nos sirve para escapar de la regresión infinita o del apriorismo. Desde este punto de vista
cabe darse cuenta de que es inútil y engañoso emplear el concepto de probabilidad en relación
con las hipótesis científicas. El concepto de probabilidad se emplea en la física y en la teoría de
los juegos de azar de un modo concreto, que puede definirse satisfactoriamente valiéndose del
concepto de frecuencia relativa. Pero las tentativas de Reichenbach de ampliar tal concepto de
suerte que incluya la llamada <<probabilidad inductiva>> o la <<probabilidad de hipótesis>>
están condenadas a fracasar, según mi opinión, si bien no tengo objeción alguna que hacer
contra la idea -que aquel autor trata de invocar- de una <<frecuencia veritativa>> en una
sucesión de enunciados: pues no es posible interpretar satisfactoriamente las hipótesis como
sucesiones de enunciados, e incluso si se aceptase esta interpretación no se ganaría nada, ya
que se encuentra uno abocado en diversas definiciones de la probabilidad de una hipótesis
todas enteramente inadecuadas. Por ejemplo, se desemboca en una definición que atribuye la
probabilidad 1/2 -en lugar de 0- a una hipótesis que ha quedado falsada mil veces: así ocurriría
con una hipótesis que resultase falsada en una contrastación sí y una no. Podría quizá
considerarse la posibilidad de interpretar la hipótesis, no como una sucesión de enunciados,
sino como un elemento de una sucesión de hipótesis, y de atribuirla cierto valor probabilitario
en cuanto elemento de semejante sucesión (aunque no a base de la <<frecuencia de la
verdad>>, sino de la <<frecuencia de la falsedad>> dentro de semejante sucesión). Pero esta
tentativa es, así mismo, completamente insatisfactoria: mediante consideraciones sumamente
sencillas se llega al resultado de que no podemos obtener de este modo un concepto de
probabilidad que satisfaga ni siquiera la modesta condición de que una observación falsadora
origine una disminución apreciable de la probabilidad de la hipótesis.
A mi entender, tenemos que hacernos a la idea de que no hemos de considerar la ciencia como
un <<cuerpo de conocimientos>>, sino más bien como un sistema de hipótesis: es decir, como
un sistema de conjeturas o anticipaciones que -por principio- no son susceptibles de
justificación, pero con las que operamos mientras salgan indemnes de las contrastaciones; y
tales que nunca estaremos justificados para decir que son <<verdaderas>>, <<más o menos
ciertas>>, ni siquiera <<prohables>>.
Popper, K. – Realismo y el objetivo de la ciencia

En referencia a los términos técnicos <<falsable>> (empíricamente refutable) y <<falsabilidad>>


(refutabilidad empírica). Introduje estos términos en relación con mi solución al problema de la
demarcación. El problema de la demarcación consiste en encontrar un criterio que nos permita
distinguir entre enunciados que pertenezcan a las ciencias empíricas (teorías, hipótesis) y otros
enunciados, en particular los enunciados pseudo-científicos, pre-científicos y metafísicos; pero
también los enunciados lógicos y matemáticos. El problema de la demarcación debe
distinguirse del problema, mucho más importante, de la verdad: teorías de las que se ha
demostrado que eran falsas pueden, no obstante, retener el carácter de hipótesis científicas,
empíricas.
Aunque, siguiendo a Tarski, no creo que sea posible un criterio de verdad, he propuesto un
criterio de demarcación -el criterio de falsabilidad-. Mi propuesta es que un enunciado (una
teoría, una conjetura) cumple las condiciones para pertenecer a las ciencias empíricas si, y sólo
si, es falsable. Pero, ¿cuándo es falsable un enunciado? Es de gran importancia para la presente
discusión advertir que la falsabilidad en el sentido de un criterio de demarcación es un asunto
puramente lógico. Se refiere únicamente a la estructura lógica de los enunciados y de las clases
de enunciados. Y no tiene nada que ver con la cuestión de si ciertos resultados experimentales
posibles podrían o no ser aceptados como falsaciones.
Un enunciado o teoría es falsable, según mi criterio, si y sólo si, existe como mínimo un
falsador potencial -al menos un enunciado básico que esté en conflicto con él-. Es importante
no exigir que el enunciado básico en cuestión sea verdadero. La clase de enunciados básicos
está concebida de modo que un enunciado básico describa un suceso lógicamente posible que
sea lógicamente posible que pueda ser observado.
Para hacer esto menos abstracto daré aquí cuatro ejemplos: dos de enunciados falsables y dos
de enunciados infalsables.
1) <<Todos los cisnes son blancos>>. Esta teoría es falsable puesto que, por ejemplo, contradice
el enunciado básico siguiente (que es, por cierto, falso): <<E l 16 de mayo de 1934, entre las
diez y las once de la mañana, hubo un cisne negro parado ante la estatua de la Emperatriz
Isabel en el Volksgarten de Viena>>·
2) El principio de Einstein de la proporcionalidad entre la masa inerte y la masa (pasivamente)
pesada. Este principio de equivalencia entra en conflicto con muchos falsadores potenciales:
sucesos cuya observación es lógicamente posible. Sin embargo, a pesar de todos los intentos
de llevar a cabo experimentalmente esa falsación los experimentos han corroborado, hasta el
momento, el principio de equivalencia.
3) <<Todas las acciones humanas son egoístas, motivadas por el propio interés>>. Esta teoría es
ampliamente aceptada: tiene variantes en el conductismo, el psicoanálisis, la psicología
individual, el utilitarismo, el marxismo vulgar, la religión y la sociología del conocimiento. Está
claro que esta doctrina, con todas sus variantes, no es falsable: ningún ejemplo de acción
altruista puede refutar la concepción de que había un motivo egoísta oculto tras ella.
4) Los enunciados puramente existenciales no son falsables, como el famoso ejemplo de Rudolf
Carnap: <<Existe un color ('rojo-eupatorio') que produce terror a quienes lo miran>>. Otro
ejemplo es: <<Hay una ceremonia cuya realización exacta hace aparecer al diablo>>. Tales
enunciados no son falsables. (Son, en principio, verificables: es lógicamente posible encontrar
una ceremonia cuya realización lleve a la aparición de una figura humana con cuernos y
pezuñas. Y si la repetición de la ceremonia no consigue el mismo resultado, eso no supone
falsación, porque quizá se haya omitido un aspecto inadvertido, pero esencial de la ceremonia
correcta). Como muestran esos ejemplos, la falsabilidad en el sentido del criterio de
demarcación no significa que pueda realizarse en la práctica una falsación o que, si se lleva a
cabo, carezca de problemas. La falsabilidad en el sentido del criterio de demarcación no
significa nada más que una relación lógica entre la teoría en cuestión y la clase de los
enunciados básicos o la clase de los sucesos descritos por ellos: los falsadores potenciales. La
falsabilidad es, pues, relativa a esas dos clases: si una de estas clases está dada, la falsabilidad
es una cuestión de pura lógica: del carácter lógico de la teoría bajo consideración. Que es
necesario que nos den la clase de falsadores potenciales (o de enunciados básicos) puede
mostrarse fácilmente con nuestro primer ejemplo: <<todos los cisnes son blancos>>. Como ya
he dicho, este enunciado es falsable. Supongamos, sin embargo, que hay alguien que, cuando
se le enseña un cisne que no es blanco, adopta la posición de que no puede ser un cisne, ya
que es <<esencial>> que un cisne sea blanco.
Tal posición equivale sostener que los cisnes no blancos son estructuras lógicamente
imposibles (y, por tanto, inobservables). Los excluye como clase de falsadores potenciales. En
relación con esta clase modificada de falsadores potenciales, el enunciado <<todos los cisnes
son blancos>> es, naturalmente, infalsable. Para evitar ese paso podemos exigir que cualquiera
que defienda el carácter científico-empírico de una teoría sea capaz de especificar bajo qué
condiciones estaría dispuesto a considerarla falsada, es decir, tendría que ser capaz de describir
al menos algunos falsadores potenciales.
Llegamos ahora al segundo sentido de <<falsable>> y <<falsabilidad>>, que debe distinguirse
muy claramente de mi criterio puramente lógico de demarcación para evitar confusiones
burdas. Uno puede plantear la cuestión de si la falsación efectiva es alguna vez tan clara que
haya que considerar falsada la teoría en cuestión (y haya, por tanto, que considerarla falsa).
¿No hay siempre una salida para alguien que quiera salvar la teoría en cuestión? Siempre he
mantenido que nunca es posible demostrar concluyentemente que una teoría científica
empírica es falsa. En este sentido, esas teorías no son falsables. <<Todo sistema teórico puede
ser protegido de diversas maneras contra una falsación empírica>>. <<Siempre es posible
encontrar alguna vía de escape de la falsación, por ejemplo, mediante la introducción ad hoc
de una hipótesis auxiliar>>. <<No es posible jamás presentar una refutación concluyente de
una teoría>>.
De ahí, repito, que tengamos que distinguir entre dos significados de las expresiones
<<falsable>> y <<falsabilidad>>:
1) <<falsable>> como término lógico-técnico, en el sentido del criterio de demarcación por la
falsabilidad. Este concepto puramente lógico -falsable en principio, podríamos decir- descansa
en una relación lógica entre la teoría en cuestión y la clase de enunciados básicos (o los
falsadores potenciales por ellos descritos).
2) <<Falsable>> en el sentido de que la teoría en cuestión puede ser falsada definitiva o
concluyente o demostrablemente (<<demostrablemente falsable>>). Siempre he insistido que,
incluso una teoría que es obviamente falsable en el primer sentido, no lo es nunca en el
segundo. (Por esta razón he usado la expresión <<falsable>>, por norma general, sólo en el
primer sentido, el sentido técnico. En el segundo sentido he hablado, por norma general, no de
<<falsabilidad>>, sino más bien de la <<falsación>> y de sus problemas).
Está claro que los sufijos <<-able>>, y <<-abilidad>> están usados de forma algo diferente en
esos dos sentidos. Aunque el primer sentido se refiere a la posibilidad lógica de una falsación
en
principio, el segundo caso se refiere a una prueba experimental practica y concluyente de
falsedad. Pero no existe nada parecido a una prueba concluyente para resolver una cuestión
empírica. Toda una literatura descansa sobre el hecho de que no se haya observado esta
distinción. Se dice a menudo que mi criterio de demarcación es inaplicable porque las teorías
científicas empíricas no pueden falsarse definitivamente. Aunque es menos importante,
también se dice que el descubrimiento de la infalsabilidad de las teorías científicas en el
segundo sentido es un logro que contradice mi teoría, a pesar de que he sido yo mismo quien
ha señalado ese hecho una y otra vez. (En lugar de diferenciar los dos significados
-<<falsabilidad>>, la posibilidad de que ciertas teorías puedan falsarse en principio, porque
tienen algunos falsadores
potenciales, y <<falsabilidad>>, la siempre problemática posibilidad de que pueda mostrarse
que una teoría es falsa, puesto que no existen pruebas empíricas definitivas- se han hecho
distinciones irónicas entre <<Popper0>>, <<Popper1>>, <<Popper2>> y así sucesivamente [es
decir, entre varias etapas de <<Popper>> que se contradicen notoriamente unas a otras y no
pueden armonizarse]. Y las dificultades, en muchos casos la imposibilidad, de una falsación
práctica concluyente se presentan como una dificultad o incluso la imposibilidad del criterio de
demarcación propuesto).
Todo esto tendría poca importancia si no fuera por el hecho de que ha llevado a algunas
personas a abandonar el racionalismo en la teoría de la ciencia y a lanzarse al irracionalismo.
Porque si la ciencia no avanza racional y críticamente, ¿cómo podemos tener la esperanza de
que se tomen decisiones racionales en otros terrenos? Un ataque, hecho a la ligera, a un
término lógico-técnico mal entendido ha llevado, pues, a algunos a conclusiones filosóficas, e
incluso políticas, desastrosas y de largo alcance.
Debería subrayarse que la incertidumbre de toda falsación empírica (que yo he señalado
repetidas veces) no debe tomarse demasiado en serio (como también he señalado). Hay una
serie de falsaciones importantes que son tan <<definitivas>> como lo permite la general
falibilidad humana. Además, toda falsación puede, a su vez, volver a ser contrastada. Con
frecuencia se tarda bastante tiempo en aceptar una falsación. Normalmente no se acepta hasta
que la teoría falsada es sustituida por la propuesta de una teoría nueva y mejor. Como advirtió
Max Planck, a veces hay que esperar a que se haya formado una nueva generación de
científicos; eso, sin embargo, no es siempre necesario. No lo fue con el nuevo modelo del
átomo de Rutherford (1912) ni con el reconocimiento de J. J. Thomson (1897) de partículas
subatómicas tales como el electrón, que significaban la falsación de la teoría del átomo
indivisible. (Los átomos se habían considerado indivisibles por definición desde el año 460 a. C.
aproximadamente.) Tampoco fue así con la falsación de Carl Anderson (1932) de la poderosa
teoría de que sólo había dos partículas elementales -el protón y el electrón- ni con el rechazo
de Hideki Yukawa de la teoría electro-magnética de la materia. Estos son sólo cuatro entre
muchos ejemplos de revoluciones científicas que se introdujeron gracias a falsaciones de éxito.
El significado lógico-técnico, mal entendido, de falsabilidad en el primer sentido, en el sentido
del criterio de demarcación, ha llevado a dos leyendas históricas. La primera leyenda, poco
importante, es que yo pasé por alto el hecho de que la falsabilidad de las teorías no es
concluyente -el hecho de que las teorías no son concluyentemente falsables en el segundo
sentido-. Cuando, en realidad, yo lo había resaltado repetidamente desde 1932. La segunda
leyenda (y ésta es mucho más importante) es que la falsación no juega ningún papel en la
historia de la ciencia. En realidad, juega un papel primordial, a pesar de su carácter no
definitivo.

Algunas personas han sostenido que mi teoría de la ciencia ha sido refutada por los hechos de
la historia de la ciencia. Esto es un error: es un error sobre los hechos de la ciencia y también es
un error respecto a las afirmaciones de mi metodología. No considero la metodología como
una disciplina empírica a contrastar, quizá, por medio de los hechos de la historia de la ciencia.
Es, más bien, una disciplina filosófica, metafísica, y quizá, incluso, en parte, una propuesta
normativa. Se basa en gran medida en el realismo metafísico y en la lógica de la situación: la
situación de un científico sondeando la desconocida realidad que se esconde tras las
apariencias y ansioso por aprender de los errores.
No obstante, siempre he pensado que mi teoría -de la refutación seguida por la aparición de un
problema nuevo, seguida a su vez por una teoría nueva y quizá revolucionaria- era del mayor
interés para el historiador de la ciencia, puesto que llevaba a una revisión del modo en que los
historiadores debían juzgar la historia; especialmente ya que la mayoría de los historiadores
creían, en aquellos días (1934), en una teoría inductivista de la ciencia (ahora ya han
renunciado a ella -incluso mis críticos-). Que mi teoría, en la medida en que es exacta, tenga
interés para los científicos y los historiadores no tiene nada de sorprendente; porque muchos
de ellos -creo que la mayoría comparten mi concepción realista del mundo y entienden los
objetivos de la ciencia de la misma manera que yo: lograr explicaciones cada vez mejores.

Las refutaciones históricas no hicieron más que crear nuevas situaciones de los problemas que,
a su vez, estimularon la imaginación y el pensamiento crítico. Las nuevas teorías que se
desarrollaron no fueron, pues, resultados directos de las refutaciones: fueron los logros del
pensamiento creador, de los hombres que pensaron. En algunos casos se tardó cierto tiempo
antes de que la refutación se aceptase como tal: hubo con frecuencia acciones de retaguardia,
a veces incluso acciones prolongadas, antes de que la refutación se aceptase en la práctica
como refutación por todas las personas competentes, en vez de interpretarla de algún otro
modo.

Este puede ser el lugar adecuado para mencionar, y refutar, la leyenda de que Thomas S. Kuhn,
en su capacidad de historiador de la ciencia, es quien ha mostrado que mis concepciones sobre
la ciencia (llamadas a veces, pero no por mí mismo, <<Falsacionismo>>) pueden refutarse con
hechos, es decir, por medio de la historia de la ciencia. No creo siquiera que Kuhn lo haya
intentado. En todo caso, no lo ha logrado. Además, en la cuestión de la importancia de la
falsación para la historia de la ciencia, las concepciones de Kuhn y las mías coinciden casi
totalmente. Esto no significa que no haya grandes diferencias entre las concepciones de Kuhn y
las mías sobre la ciencia. Yo sostengo la antigua teoría de la verdad (casi explícita en Jenófanes,
Demócrito y Platón y bastante explícita en Aristóteles), según la cual la verdad es la
conformidad de lo que se afirma con los hechos. Las concepciones de Kuhn en esta cuestión
fundamental me parecen estar afectadas por el relativismo; más específicamente, por una
forma de subjetivismo y de elitismo como la propuesta, por ejemplo, por Polanyi. Kuhn me
parece estar también afectado por el fideísmo de Polanyi: la teoría de que un científico tiene
que tener fe en la teoría que propone (mientras que yo creo que los científicos -como Einstein
en 1916 y Bohr en 1913- se hacen cargo a menudo de que están proponiendo conjeturas que
tarde o temprano serán sustituidas por otras). Hay muchos otros puntos en los que diferimos,
el más importante de los cuales es, quizá, mi énfasis en la crítica objetiva y racional: considero
característico de la ciencia, antigua y moderna, el enfoque crítico de las teorías, desde el punto
de vista de si son verdaderas o falsas. Otro punto que me parece fundamental es que Kuhn no
parece comprender la gran importancia de las muchas revoluciones puramente científicas que
no están relacionadas con revoluciones ideológicas. En realidad, él casi parece identificar los
dos tipos.
Pero con respecto a la falsabilidad o a la imposibilidad de obtener pruebas concluyentes de
falsación y respecto a la función de ambas en la historia de la ciencia y de las revoluciones
científicas, no parece haber ninguna diferencia de importancia entre Kuhn y yo.
Kuhn, sin embargo, parece ver grandes diferencias entre nosotros en este punto, aunque
también señala muchas similaridades entre sus concepciones y las mías. Cuando escribió su
primer libro me consideraba un <<falsacionista ingenuo>>. Sin embargo, en ese libro, Kuhn
aceptaba prácticamente mis auténticas concepciones sobre el carácter revolucionario de la
evolución de la ciencia. Se desvía de mis concepciones sólo en que sostiene lo que he descrito
como <<fideísmo>>, porque afirma que <<un científico tiene que creer en su sistema antes de
confiar en él como guía para la investigación fructífera de lo desconocido>>. Pero Kuhn me
sigue de cerca cuando continúa: <<Pero el científico paga el precio de compromiso… una sola
observación incompatible con su teoría puede demostrar que ha estado empleando una teoría
equivocada en todo momento. Entonces debe abandonar su esquema conceptual y
sustituirlo>>. Esto es, obviamente, <<falsacionismo>>; de hecho, es algo parecido a un
<<estereotipo metodológico de la falsación>>. Kuhn continúa: <<En esquema, ésta es la
estructura lógica de una revolución científica. Un esquema conceptual… lleva finalmente a
resultados que son incompatibles con las observaciones… Es un esquema útil, porque la
incompatibilidad de teoría y observación es la fuente primaria de toda revolución en la
ciencia>>. Este <<esquema útil>> no es sólo falsacionista; es un estereotipo mucho más
simplista del falsacionismo que nada de lo que yo mismo haya dicho jamás; en realidad,
siempre he estado en total acuerdo con la siguiente observación, más crítica, que añade Kuhn:
<<Pero, históricamente, el proceso de la revolución no es nunca, y no podría ser de ningún
modo tan sencillo como indica el esquema lógico. Como ya hemos empezado a descubrir, la
observación no es nunca absolutamente incompatible con una teoría>>. Naturalmente, yo ya
había señalado siempre que <<la observación está impregnada de teoría>>, de la misma
manera que señalaba que es imposible presentar una <<contra-prueba>> incuestionable de
una teoría empíricamente científica). Por ello, me quedé perplejo cuando leí en el segundo
libro de Kuhn: <<Ningún proceso de los revelados hasta el momento por el estudio histórico del
desarrollo científico se asemeja en absoluto al estereotipo metodológico de la falsación por
comparación directa con la naturaleza>>. ¿qué quería decir Kuhn con esto? ¿Qué el proceso
histórico no se asemeja en absoluto a un proceso de falsación, o que no se asemeja a ese
<<estereotipo>> que él caracteriza como la <<comparación directa con la naturaleza>> que él
llama en otro lugar <<falsacionismo ingenuo>> y que yo, por lo menos, siempre he rechazado?
La verdadera pieza clave de mi pensamiento sobre el conocimiento humano es el falibilismo y
el enfoque crítico; y veo que el conocimiento humano es un caso muy especial de
conocimiento animal. Mi idea central en el terreno del conocimiento animal (incluido el
conocimiento humano) es que se basa en conocimiento heredado. Tiene el carácter de las
expectaciones inconscientes. Siempre se desarrolla como consecuencia de modificaciones del
conocimiento anterior. La modificación es (o es como) una mutación: viene de dentro, tiene el
carácter de un globo de prueba, es intuitiva o atrevidamente imaginativa. Tiene, pues, un
carácter conjetural: la expectación puede resultar frustrada, el globo puede pincharse: toda la
información que se recibe de fuera es eliminatoria, selectiva. Lo especial del conocimiento
humano es que puede formularse en un lenguaje, por medio de proposiciones. Ello hace
posible que el conocimiento se haga consciente y sea criticable objetivamente por medio de
argumentos y de contrastaciones. De este modo llegamos a la ciencia. Las contrastaciones son
intentos de refutación. Todo conocimiento sigue siendo falible, conjetural. No hay justificación
no, naturalmente, justificación definitiva de una refutación. No obstante, aprendemos por las
refutaciones, es decir, por la eliminación de errores, por un proceso de realimentación. En esta
descripción no hay lugar en absoluto para la <<falsación ingenua>>.

Otra objeción a mi teoría del conocimiento está mejor fundada, aunque su impacto en mi
teoría es insignificante. Es el admitido fracaso de una definición (de la similitud con la verdad o
aproximación a la verdad). Voy a explicar primero con dos ejemplos, 1) y 2), el único tipo de
uso de la idea de similitud con la verdad que puede aparecer en mi teoría del conocimiento (o
en la de cualquier otro).
1) El enunciado de que la tierra está en reposo y que los cielos estrellados rotan a su alrededor
está más lejos de la verdad que el de que la tierra rota alrededor de su propio eje; que es el sol
el que está en reposo; y que la tierra y los otros planetas giran en órbitas circulares alrededor
del sol (como propusieron Copérnico y Galileo). El enunciado, debido a Kepler, de que los
planetas no se mueven en círculos, sino en elipses (no muy alargadas) con el sol en su foco
común (y con el sol en reposo o girando sobre su eje) es una mayor aproximación a la verdad.
El enunciado, debido a Newton, de que existe un espacio en reposo, pero que, aparte de la
rotación, su posición no puede hallarse por medio de la observación de las estrellas o de
efectos mecánicos, es un paso más en la dirección de la verdad.
2) Las ideas de Gregor Mendel sobre la herencia estaban más próximas a la verdad, al parecer,
que las concepciones de Charles Darwin. Los experimentos posteriores de reproducción con
moscas de la fruta (mosca mediterránea) llevaron a mayores progresos en la similitud con la
verdad de la teoría de la herencia. La idea del acervo genético de una población (una especie)
supuso un paso más. Pero los pasos más importantes, con mucho, fueron los que culminaron
con el descubrimiento del código genético.
Estos ejemplos, 1) y 2), muestran, creo, que no es necesaria una definición formal de similitud
con la verdad para poder hablar inteligentemente de ella. Entonces, ¿por qué intenté dar una
definición formal? He argüido a menudo que las definiciones son innecesarias. Nunca son
realmente necesarias y rara vez útiles, excepto en el siguiente tipo de situación: introduciendo
una definición podemos mostrar que no sólo se necesitan menos suposiciones básicas para
una buena teoría, sino que, además, nuestra teoría puede explicar más que sin la definición. En
otras palabras, una nueva definición tiene interés sólo si la teoría resulta fortalecida por ella.
Creí que podía hacer esto con mi teoría de los objetivos de la ciencia: la teoría de que la ciencia
busca la verdad y la resolución de problemas de explicación, es decir, que busca teorías de
mayor capacidad explicativa, mayor contenido y mayor contrastabilidad. La esperanza de
fortalecer aún más esta teoría de los objetivos de la ciencia por medio de la definición de
similitud con la verdad en términos de verdad y de contenido fue, desgraciadamente, vana.
Pero la concepción, muy extendida, de que el abandono de esta definición debilita mi teoría,
carece por completo de fundamento. Puedo añadir que acepté la crítica hecha a mi definición a
los pocos minutos de
su presentación, preguntándome cómo no habría visto el error yo mismo antes, pero nadie ha
mostrado nunca que mi teoría del conocimiento haya resultado debilitada en lo más mínimo
por esta infortunada definición errada o que la idea de similitud con la verdad (que no es una
parte esencial de mi teoría) no pueda seguir usándose dentro de mi teoría como concepto sin
definir.
Rojo, R. – Popper y el positivismo lógico

Las deudas de Popper y el Positivismo Lógico

La publicación de su obra fundamental La Lógica de la Investigación Científica se hizo en Viene


en 1934 en la edición de obras del llamado Círculo de Viena que a la sazón proclamaba
agresivamente el ideario del Positivismo Lógico, responsable en buena medida, de la filosofía
lingüística. Gran parte de la filosofía de Popper surge de una polémica en torno a los principios
fundamentales del Neopositivismo. En el Prefacio a la edición inglesa de la obra dice
refiriéndose a la filosofía lingüística y a las dos escuelas de analistas del lenguaje: <<Lo mismo
entonces que ahora, los analistas que digo tienen gran importancia para mí: no sólo como
contrincantes, sino como aliados en cuanto que parecen ser los únicos filósofos que conservan
vivas algunas de las tradiciones de la filosofía racional>>. Esta deuda es decisiva porque no sólo
enfrenta a Popper con la filosofía entonces imperante –piénsese que Heidegger publica Ser y
Tiempo en 1927– sino
porque constituye el rasgo prominente de su hacer filosófico como actividad racional, crítica,
argumentativa. En su estilo filosófico, se proponen soluciones, se las somete a críticas, se
extraen consecuencias, todo inserto en una tarea en la cual sólo impera la racionalidad. En esta
misma línea racional se halla su teoría del lenguaje respecto de cuyas funciones dice que “la
argumentadora o crítica es la que considero más importante: es la base de lo que
denominamos racionalidad humana”. Frente a esta coincidencia la discrepancia hace valer sus
derechos con relación a la índole de los problemas filosóficos, negados como tales o reducidos
a cuestiones de uso lingüístico para los analistas del lenguaje. Para Popper, en cambio, hay
auténticos problemas filosóficos como el de “entender el mundo -incluidos nosotros y nuestro
conocimiento como parte de él.” Aquí se halla la cuestión central de la epistemología que no es
otra cosa que el aumento del conocimiento. “Y el mejor medio de estudiar el aumento del
conocimiento es estudiar el conocimiento científico.” Aunque por caminos diferentes hay en
Popper y en el Positivismo Lógico una exaltación paradigmática del saber científico que
constituye otra forma de traducir los exaltados principios de la racionalidad o del pensamiento
crítico. A pesar de la negación de las tesis fundamentales del Positivismo Lógico –cuyo pilar es
la Lógica–, Popper hace de la Lógica Simbólica de Russell un uso eficaz en el esclarecimiento de
muchas de sus tesis capitales. No cabe duda que este uso de la Lógica aparece de este modo
inserta en la línea del racionalismo crítico.

La demarcación
El problema de la demarcación y los principios de la verificación, según la tesis que sostengo,
no se habría forjado la idea de la demarcación popperiana de no haber caído la verificación
neopositivista en insuperables atolladeros. Quien haya seguido con paciencia las alternativas
de la teoría de la verificación no puede dejar de reconocer el laborioso empeño de los neo-
positivistas por alcanzar una coherente propuesta de la idea de la verificación. Los combates
internos de la escuela, como acaso no hubo otros en la historia de la filosofía, acabaron por
mostrar el agotamiento del problema o por señalar sus inevitables debilidades. Es entonces
cuando estalla una nueva visión de las cosas, es entonces cuando irrumpe una nueva
perspectiva. Así, ante los despojos de los principios neopositivistas, pero no antes, Popper traza
el círculo de una nueva y prometedora idea, la idea de la demarcación.
Para Popper, la diferencia de estas dos nociones se sitúa en el ámbito del sentido, uno de los
temas de los neopositivistas, para quienes aparte de las proposiciones matemáticas, sólo
tienen sentido, las proposiciones verificables y carecen de él, esto es, son sin sentido, las
proposiciones inverificables como la de la metafísica. Una proposición como “La Voluntad es la
esencia de la Realidad” no es una proposición falsa, porque en este caso su negación sería
verdadera, sino una proposición inverificable, esto es, metafísica o sin sentido. Nunca en la
historia de la filosofía había llegado a tal extremo la recusación de la metafísica.
Al rechazar este modo de encarar el problema del sentido, Popper descalifica con fuertes
argumentos epistemológicos el principio de la verificación, convertido por los representantes
del Círculo de Viena en criterio de sentido de las proposiciones. Waismann formuló este
principio con claridad: “Si no es posible determinar si un enunciado es verdadero, entonces
carece enteramente de sentido: pues el sentido de un enunciado es el método de su
verificación.” De todos modos, a pesar de reconocer la autenticidad del problema del sentido a
que obsesivamente se entregaron los neopositivistas, Popper señala con claridad que no se
trata de establecer lo que tiene sentido frente a lo que carece de él, esto es, que el criterio de
demarcación, la falsabilidad no es un criterio de sentido, sino que dentro de la esfera del
sentido distingue los enunciados empíricos o refutables de los metafísicos o irrefutables. Vale
decir que, pesar de sus críticas al problema del sentido, Popper utiliza esta noción en la
justificación de su teoría. En suma, el criterio de demarcación no es la verificabilidad sino la
falsabilidad de los sistemas. Esto conlleva una actitud diferente ante la metafísica, pues
mientras que los neopositivistas la relegaban al desván de lo sin sentido, para Popper la
metafísica, integrada por enunciados no falsables, ha mostrado a lo largo de la historia de la
ciencia una indiscutida fecundidad, proponiendo y encarando cuestiones que ulteriormente la
ciencia había de hacer suyas.

Popper y la Lógica

Donde también es visible la deuda que Popper tiene con el neopositivismo es en la utilización
de la Lógica, la Lógica de Russell, en el análisis y esclarecimiento de los problemas filosóficos.
Como es sabido, el positivismo del Círculo de Viena es el primero históricamente en valerse
rigurosamente de los esquemas formales de la Lógica Matemática para fundamentar los
principios de su doctrina. Y gran parte de la racionalidad de la doctrina popperiana, su claridad
y rigor, su carácter argumentativo que extrae limpiamente las consecuencias que manan de sus
tesis se vincula con los métodos del pensar lógico. Uno de muchos ejemplos de esta presencia
de lo lógico –y no sólo de la Lógica a secas– en el pensamiento filosófico de Popper, tiene que
ver con la idea de la falsación. La distinción entre enunciados universales y existenciales, entre
lo que él llama universalidad estricta y la universalidad numérica, así como la diferencia entre
conceptos universales y conceptos individuales constituyen los fundamentos lógicos de la
teoría de la falsación que, por otra parte, se ajusta al modelo lógico del Modus Tollens, según el
cual, la falsación de una conclusión entraña la falsación del sistema de que se ha deducido. Hay
más,
La formulación rigurosa de lo que se entiende por teoría empírica apela a la noción lógico-
matemática de “clase”, “subclase” y “clase vacía”. “Una teoría es falsable si la clase de sus
posibles falsadores no es una clase vacía”. Una teoría empírica divide la clase de los posibles
enunciados básicos en dos subclases no vacías, la de los enunciados que la teoría permite y la
de los enunciados que la teoría prohíbe. Se alcanza así una definición precisa de los enunciados
metafísicos. Con esta teoría de la falsación se llega al extraño resultado de que los enunciados
metafísicos, al igual que las tautologías, son tales que la clase de sus posibles falsadores es una
clase nula. Es tan irrefutable el enunciado metafísico “El espíritu es la esencia del mundo“
como el enunciado tautológico “llueve o no llueve”.

Los enunciados básicos

Otro punto sobre el cual quiero llamar la atención y que traduce una vez más la deuda de
Popper con el neopositivismo es su teoría de los enunciados básicos cuya solución partió de las
dificultades con que se enfrentaron los representantes del neo-postivismo en la dilucidación y
posición dentro de una teoría de los entonces llamados enunciados protocolarios. Hay que
decir entonces que tanto los neopositivistas como Popper coincidían en la búsqueda de los
enunciados últimos e irreductibles sobre los cuales apoyar el saber empírico, si bien por tales
entendían cosas diferentes.

Los tres mundos

Quiero referirme ahora a la teoría de Popper sobre los tres mundos y señalar que una de sus
deudas con respecto a su tripartición del mundo proviene, entre otros filósofos, de Frege con el
cual, en el planteamiento de este problema, tiene más afinidad que con los otros antecedentes
como la teoría de las ideas de Platón. Aludo a Frege porque es uno de los matemáticos y
filósofo de la Lógica que estuvo vinculado con Russell y es responsable, en gran parte, de la
atmósfera científica que rodeó al neopositivismo. En un texto llamado Pensamiento, Frege
distingue con singularidad tres reinos o mundos perfectamente diferenciados cada uno con
características inconfundibles. Estos mundos son: a) el mundo interior, b) el mundo exterior y c)
el mundo del pensamiento. El mundo interior –llamado idea– es el mundo de las impresiones,
sensaciones, sentimientos, decisiones. Los rasgos esenciales de las ideas son las siguientes. 1)
No pueden ser vistas ni tocadas ni oídas a diferencia de lo que ocurre con las cosas del mundo
exterior. 2) Hay alguien en cuya conciencia se dan estas ideas, esto es, que el mundo interior
presupone un portador, a diferencia del mundo exterior que es independiente del sujeto. 3)
Toda idea tiene un solo portador. Una idea no puede ser el contenido de dos conciencias o
sujetos diferentes. Mis sensaciones son incomparables con las sensaciones de los demás.
Las cosas del mundo exterior, en cambio, pueden ser vistas u oídas por sujetos diferentes.
Aunque Frege confiere al término “idea” un sentido que difiere del uso más generalizado, es
clara la manera que tiene de acotar el mundo interior o psicológico, contrapuesto al mundo
exterior. Importa también destacar la distinción que establece entre el mundo interior de la
idea y el mundo de lo que llama los pensamientos, que no pertenecen al mundo exterior de las
cosas ni al mundo interior de las ideas o percepción. Este reino de los pensamientos tiene
también rasgos propios. Como las ideas, los pensamientos no son susceptibles de percepción, y
al igual que los objetos exteriores no requieren de portadores. Por otro lado, el pensamiento, a
diferencia de la idea, es invariable, intemporal de suerte que si la aprehensión del teorema de
Pitágoras varía con las aprehensiones de los distintos sujetos o conciencias, el contenido del
teorema permanece siempre idéntico a sí mismo.
Esta distinción fregeana pauta de manera visible la teoría del conocimiento de Popper con su
idea de los tres mundos claramente expresada a lo largo de su obra y puesta de relieve
inequívocamente en su idea del conocimiento sin sujeto cognoscente. Es claro que la
originalidad de Popper en la idea del tercer mundo va más allá de la teoría de Platón y de la de
Bolzano y Frege y suscita, por ello mismo, problemas y dificultades propias.

La verdad semántica

Por último, quiero aludir en este excursus ideológico, a la admiración de Popper por la teoría
semántica de la verdad del lógico polaco Tarski que contribuyó mucho al desarrollo de la Lógica
Matemática. Si la tarea principal de la filosofía y de la ciencia es, dice Popper, la búsqueda de la
verdad, favorecerá este empeño una teoría de la verdad sencilla, sin complicaciones, alejada de
hermetismos y complicaciones, y estas exigencias se hallan materializadas en la teoría
semántica de la verdad de Tarski, según la cual la verdad y la falsedad se consideran
esencialmente como propiedades de enunciados. Más de una consecuencia filosófica extrajo
Popper de esta idea semántica de la verdad. Por ejemplo, esta idea de verdad es objetiva, pero
no absoluta porque es imposible que haya un criterio de verdad que nos suministre absoluta
certeza o seguridad. Un criterio semejante sólo cabe en lenguajes artificiales muy simples. En la
teoría del conocimiento de Popper juega un papel importante el concepto relacionado al de
verdad, el de verosimilitud, que a su vez da cuenta de nuestra condición de buscadores pero no
de poseedores de la verdad. ”Esta tendencia, dice, irrenunciable a buscar la verdad sin
alcanzarla, esta aproximación a la verdad ilumina la noción lógica de verosimilitud.” Esto explica
que para Popper
la ciencia, el conocimiento sea una faena interminable, sintetizable en la dinámica noción de
progreso.
Basten los ejemplos anteriores para testimoniar la influencia que tuvo el Positivismo Lógico en
la construcción teórica de Popper, influencia que puede resumirse en dos apartados: a) muchas
de sus ideas constituyen respuestas y superaciones de dificultades intrínsecas del
neopositivismo y b) comparte formalmente con él el temple científico y racional de la filosofía.
De este modo, el pensamiento de Popper ilustra, una vez más, la condición histórica de la
filosofía, su profunda conexión con el pasado y su apertura a nuevas formas de pensar y de
interpretar el mundo. Para él, como para todo auténtico filósofo que lanza nueva luz para
esclarecer los sempiternos problemas de la filosofía, caben las palabras de Newton forjadas
ante
la obra revolucionaria de los grandes científicos que le precedieron: “Somos enanos sentados
en hombros de gigantes”.
Martínez Muñoz, S. – Otto Neurath y la filosofía de la ciencia en el siglo XX

Otto Neurath fue uno de los fundadores del llamado Círculo de Viena, y uno de los más
importantes promotores del "empirismo lógico"; término acuñado por él. Rudolf Carnap es el
más conocido de los promotores del empirismo lógico, tanto él como Neurath, siempre
tuvieron muy claro que lo que los unía no era una posición filosófica, sino un fin político.
Carnap y Neurath compartían la convicción de que la promoción de una filosofía "científica",
más tarde o más temprano, se traduciría en -cito a Carnap- "un mejoramiento de nuestras
maneras de pensar científicamente, y por lo tanto en un mejor entendimiento de lo que pasa
en el mundo, en la naturaleza y la sociedad". Carnap siempre reconoció que una de las
contribuciones más importantes de Neurath había sido su insistencia en que las condiciones
históricas y sociales tenían que tomarse en cuenta a la hora de entender el desarrollo de
concepciones filosóficas. Carnap compartía esta idea, pero veía claramente cuál era la
diferencia fundamental entre él y Neurath: mientras que para él y para Schlick había un
método filosófico que debía cultivarse y resguardarse de intrusiones provenientes de la
práctica, para Neurath esa posición neutralista sólo era "una ayuda reconfortante para los
enemigos del progreso social".
El desarrollo de las propuestas de Kuhn, y sobre todo de Feyerabend y de la sociología y la
historia de la ciencia en la segunda mitad del Siglo XX, le dan la razón a Neurath.
Implícitamente, buena parte de la filosofía de la ciencia de finales de este siglo niega que exista
tal “método filosófico” propio y autónomo de las normas epistémicas desarrolladas en la
ciencia. Las diferencias filosóficas entre Neurath y Carnap en los años treinta y cuarenta son
ciertamente más de fondo que las diferencias entre Carnap y Popper; es más, hay una cierta
continuidad entre el Carnap tardío y el Kuhn de La estructura de las revoluciones científicas que
ponen a ambos autores en mayor cercanía de lo que puede ponerse a Neurath y Carnap. No
hay una línea divisoria filosóficamente significativa que justifique colocar a Carnap y Neurath
de un lado y a Feyerabend y Kuhn del otro. Hay diferencias sociológicas e históricas, de
generación si se quiere, pero todavía están por darse argumentos que muestren que esa es una
distinción filosóficamente significativa.
En 1913, Neurath escribe dos artículos muy importantes en los cuales juegan un papel central
dos metáforas que van a ser el hilo conductor del desarrollo de su filosofía en las próximas tres
décadas; la metáfora de Descartes de un caminante perdido en el bosque y la metáfora del
conocimiento como un barco que tiene que repararse en alta mar. La primera metáfora es la
que utilizó Descartes en el Discurso del método. Según el filósofo este caminante no puede sino
recurrir a una estrategia no fundamentada en la razón para decidir qué rumbo tomar, pero
sería peor que se quedara sentado o que caminara sin rumbo fijo. Aunque no llegara a donde
quisiera llegar por lo menos eventualmente saldría del bosque. Según Descartes esta actitud
pragmática es aceptable para decidir sobre nuestras acciones en condiciones de incertidumbre,
pero ciertamente no sería aceptable en el pensamiento. Descartes -nos recuerda Neurath-
piensa que en el ámbito de la teoría, es decir, el pensamiento, es posible acercamos por medio
de la acumulación de verdades, a una visión completa y correcta del mundo.
Hay una diferencia profunda para Descartes entre nuestra manera de proceder en el ámbito de
la práctica y el ámbito de la teoría. Esta idea es una de sus herencias más persistentes en la
modernidad. Es la idea que está detrás de la distinción defendida por Carnap y Schlick, y en
general por los filósofos analíticos, de que hay un método filosófico diferente y autónomo de
los métodos y normas que se desarrollan en la ciencia. En el ámbito del pensamiento, dice
Descartes, "nada es tan difícil que no podamos llegar a alcanzarlo, nada está tan oculto que no
podamos llegar a descubrirlo". Sin embargo, para Neurath, precisamente el desarrollo de la
ciencia nos obliga a abandonar la pretensión de que tenemos esa capacidad racional sin límites
que asume Descartes, y que por lo tanto, tenemos que proceder de otra manera. Neurath
propone que el mismo tipo de reglas heurísticas que según Descartes debemos utilizar para
decidir en situaciones prácticas deben ser empleadas en el pensamiento, en el ámbito de la
teoría. A diferencia de lo que Descartes creía, la filosofía no puede pretender guiarse por el
ideal normativo de la certeza. Tenemos que proceder sin la pretensión de que estamos
acumulando verdades que nos llevan hacia una visión del mundo. La construcción de una
visión del mundo o de un sistema científico requiere asumir que sus premisas siempre están
sujetas a cuestionamiento. Cualquier pretensión de construir un sistema científico sobre una
base definitiva está destinada al fracaso.
Neurath, como Quine va a recalcar en los años cincuenta, considera que los fenómenos de la
experiencia están de tal manera entremezclados entre sí que no es posible descomponerlos en
una cadena uni-dimensional de oraciones. La corrección de una oración depende de otras
oraciones, y no tiene sentido hablar de la corrección de una oración aislada. Es sólo en el
contexto de un sistema lingüístico que podemos hablar de corrección: <<Una oración aislada
sobre el mundo no puede ser formulada sin recurrir a muchas otras oraciones de manera
velada. No es posible enunciar algo sin recurrir a nuestro aparato conceptual antecedente.
Debemos evaluar la conexión entre una oración que nos dice algo acerca del mundo y todas las
otras oraciones que nos dicen algo acerca del mundo, y debemos por otra parte establecer la
conexión entre los procesos de pensamiento que nos llevan a esos enunciados con nuestros
antecedentes procesos de pensamiento>>. Descartes, nos dice Neurath, habla de procesos
mentales como un sistema de relaciones lógicas que no tienen nada que ver con la manera en
la que se implementan sicológicamente. Descartes parece asumir que un pensamiento es algo
que siempre podemos empezar de nuevo, algo que no tiene una historia. Pero ¿qué hacer
cuando el pensar a fondo una hipótesis nos lleva toda una vida? ¿Qué hacer cuando antes de
poder concluir la investigación tenemos que tomar decisiones que nunca podremos
reconsiderar? ¿Qué hacer cuando no creer en nada no es una opción?
Neurath apunta aquí al meollo de una discusión contemporánea: la teorización no debe verse
como una actividad separada de la práctica, es sólo en un contexto de prácticas donde
podemos darle sentido y entender a una teoría como conocimiento. No debemos pensar que
el ámbito del pensamiento es el ámbito de las teorías sin cuerpo sicológico-histórico-social. Las
teorías no existen en ningún paraíso platónico o estructuralista, más bien deben verse como
construcciones intelectuales apoyadas en un contexto de prácticas que se estructuran en
tradiciones intelectuales que tienen una historia.
Hoy en día, nos dice Neurath -esto es en 1913- la mayoría de nuestros contemporáneos
piensan, como Descartes, que la solución a todos nuestros males y la fuente de todas nuestras
decisiones debe residir en una razón determinada. Se asume, dice Neurath, que una reflexión
concienzuda nos llevará a establecer las posibles alternativas y que nos permitiría decidir cuál
de ellas es la más probable. No se piensa que vale la pena reflexionar sobre aquellas
situaciones difusas y confusas en las que este procedimiento no funcionaría; estos creyentes en
una razón determinada parten del supuesto de Descartes de que a través de la teoría nos
acercamos a una visión completa del mundo, y es esa fe que los mueve a concebir el desarrollo
de la ciencia como un desarrollo de teorías. Este "pseudoracionalismo" -como lo llama
Neurath-- lleva al auto engaño y a la hipocresía. Popper era para Neurath el paradigma de un
pseudo-racionalista. El pseudo-racionalismo, según Neurath, consiste en la pretensión de
resolver todas las cuestiones de decisión y acción de la misma manera como Descartes
pretendía que se podían resolver las cosas en el ámbito de lo teórico a partir de la aplicación
de una razón determinada. Para Neurath era muy importante, y guió mucho de su trabajo
profesional, la idea de que esta situación era reforzada por el sistema educativo imperante, y
que cambiar las cosas requería cambiar la manera de enseñar lo que era la ciencia y el papel
que la ciencia podía jugar en un proyecto de reconstrucción social. La educación tenía que
hacer énfasis en nuestras limitaciones para proceder racionalmente y en este reconocimiento
la ciencia y la enseñanza de la ciencia, y sobre todo la estadística, tenían que jugar un papel
central. Neurath dice: <<Precisamente, en la tarea de reconocer las fronteras del racionalismo
debemos ver el mayor triunfo del racionalismo. La tendencia al pseudoracionalismo tiene el
mismo origen que la superstición. Cada vez más esta perniciosa versión de la ilustración les
roba [a los hombres] los medios de antaño que les permitían y eran adecuados para llegar a
decisiones claras. Cada vez más se deja a los hombres a merced de esa razón determinada de
la que sólo puede exprimirse un sucedáneo ... El pseudoracionalista pretende siempre actuar
con base en una razón determinada, y siempre estará agradecido a aquél que le sugiere cómo
actuar guiado por esa razón o discernimiento determinado>>. Este pseudoracionalismo lo
encuentra Neurath en toda la cultura de su tiempo,
en los discursos políticos y en la falta de crítica a estos discursos. Los votantes, dice Neurath, se
sienten satisfechos de alguien que les determine el futuro aparentemente guiados por la razón,
que les diga cómo decidirse, no importa mucho que un cierto tipo de decisión no sea
apropiada para el tipo de situación de que se trate. Neurath piensa que para alejarnos del
pseudoracionalismo requerimos retomar seriamente la reflexión respecto a lo que él llama
"motivaciones auxiliares". Para Neurath esas "motivaciones auxiliares" deben servir como
puente entre el racionalismo y la tradición. Una "motivación auxiliar" es una guía del
razonamiento que surge de la práctica y la tradición, y, por lo tanto, requiere de manera
esencial para su preservación, del reconocimiento por una comunidad de su ámbito de
aplicación y de su utilidad como principio heurístico de decisión. El uso de las "motivaciones
auxiliares" como un tema central de una teoría de la racionalidad tanto en la ciencia como
fuera de ella requiere de un grado mayor de organización social como condición para su
desarrollo, a diferencia de lo que implícitamente supone el pseudoracionalismo.
Los frutos de cualquier filosofía que pretenda servir a un proyecto de emancipación de la
sociedad humana tienen que pasar por una reforma educativa. Neurath le dedica la mayor
parte de su vida a este tipo de proyectos. En particular le va a dedicar varias décadas al
desarrollo de un lenguaje internacional pictórico que debería ser una herramienta decisiva en
la transmisión del conocimiento, un lenguaje que permitiría que la estadística fuera utilizada en
el desarrollo de "motivaciones auxiliares" por personas que no tuvieran los conocimientos
matemáticos adecuados para entender ese conocimiento directamente. Este lenguaje
permitiría a las sociedades modernas el desarrollo de las "motivaciones auxiliares" que, a su
vez, fomentarían el reconocimiento de la importancia de la cooperación para lograr un mundo
mejor.
La segunda metáfora que guía el trabajo de Neurath tiene que verse como la primera en el
contexto de su crítica al pseudo-racionalismo y en el contexto de la importancia que Neurath le
otorga al desarrollo de los recursos racionales implícitos en "las motivaciones auxiliares". Esta
metáfora dice: <<Somos como marineros que tienen que reconstruir su barco en alta mar, sin
poder desmantelarlo en un puerto y reconstruirlo de mejores componentes>>. Según Neurath,
una vez que abandonamos la pretensión del pseudoracionalista de poder reducir los problemas
de método y estructura de la ciencia a los criterios de una "razón determinada" (a criterios
“algorítmicos”, esto es aquellos criterios que ignoran el papel formador y constitutivo de las
formaciones conceptuales antecedentes en cualquier sistema de creencias propiamente
científico), la pregunta que surge es la siguiente: ¿Cómo hacer que toda esa corporalización de
nuestra razón, que tiene lugar en instituciones y prácticas, responda a la experiencia, o como
decía Neurath, sea controlable por la experiencia? Esto requiere una concepción muy diferente
de lo que debe entenderse por conocimiento. El "fisicalismo" para Neurath es una respuesta a
esta pregunta. Neurath (tampoco Carnap) jamás entendió al fisicalismo como propuesta para
que el discurso científico se redujera al lenguaje de la física. El fisicalismo de Neurath requiere
que toda aserción científica sea controlable por la experiencia, y esto para Neurath equivalía a
decir que era en principio refutable por sucesos actuales o posibles (sucesos que tienen lugar
en el espacio y el tiempo). Este es, me parece, el único punto importante en el cual Neurath
sigue la tradición positivista de Mach. En este sentido Neurath es positivista. Para Neurath, las
formas discursivas de la ciencia no eran meramente lenguaje, ni podrían enclaustrarse en un
lenguaje formal como Carnap llegó a pensar en los años treinta. Para Neurathl, las teorías
científicas eran como las teorías económicas que "siempre aparecen y se estiman correctas en
relación directa a las necesidades de los países que son preponderantes en el mercado
mundial".
En este proyecto neurathiano hay implícita una manera muy original y fructífera de entender el
tipo de convencionalismo que es importante en la ciencia y su alcance explicativo. Mach había
propuesto lo que parecía ser la única salida que quedaba libre después del reconocimiento del
colapso del proyecto kantiano: naturalizar la razón en el contexto de una epistemología
evolucionista que permitiría explicar esa aparente y sorprendente coincidencia de nuestras
capacidades cognitivas con la estructura de los fenómenos (nuestra experiencia), sin tener que
postular principios que explicaran esa adecuación de manera irreconciliable con una actitud
empirista-naturalista. La filosofía analítica, Carnap en particular, encontraron una manera de
responder a este desafío, a saber, el proyecto de la "reconstrucción racional" de la ciencia. Este
proyecto se basaba en la posibilidad de entender el método filosófico como un método de
análisis de nuestros conceptos, un análisis que dependía de ciertos supuestos acerca de una
racionalidad implícita en todos los seres humanos, pero que no dependía de la manera como el
conocimiento había sido conformado históricamente. Neurath pretende evitar el
reduccionismo biológico de Mach, y el supuesto de un "método analítico", haciendo ver que el
conocimiento no es más que una estructura compleja de prácticas socialmente constituidas
que generan cierto tipo de normas, normas que entendemos como epistémicas o cognitivas.
Mach reducía las normas cognitivas a normas biológicas, Carnap las reducía a principios a
priori, Neurath en su lugar pretendía explicar (por lo menos muchas de ellas) las decisiones de
los científicos como "convenciones" tomadas a partir de juicios basados en "motivaciones
auxiliares" que respondían a criterios implícitos en las diferentes prácticas, y que podían
incluso sugerir diferentes maneras de decidir, pero que no por eso dejaban de ser racionales.
Neurath nunca desarrolló sistemáticamente este tipo de respuesta, pero es clara su propuesta
a lo largo de una serie de trabajos que escribió durante más de tres décadas (desde 1913 hasta
poco antes de su muerte en 1945).
Como reconoce Carnap en su autobiografía: <<Una de las contribuciones más importantes de
Neurath consistió en sus frecuentes comentarios sobre las condiciones históricas y sociales
para el desarrollo de las concepciones filosóficas. Criticó fuertemente la imagen común,
defendida entre otros por Russell y Schlick, de que la aceptación amplia de una doctrina
filosófica depende predominantemente de su verdad>>. Nótese que Carnap se distancia de esa
"imagen común, defendida entre otros por Russell y Schlick". Carnap, por caminos diferentes,
llega al final de su vida a defender posiciones que Neurath hubiera aplaudido. Para el Carnap
de los años cincuenta las teorías no son idénticas a marcos lingüísticos, y como han señalado
vanos autores en trabajos recientes, el concepto de marco lingüístico de Carnap debe
entenderse más como las "estructuras léxicas" del Kuhn de los noventa, que como la historia
de libro de texto que entiende a Carnap, y como parece haber pensado Carnap en los años
treinta que los marcos lingüísticos tienen sólo un valor pragmático, no cognitivo. Los marcos
lingüísticos no tienen implicaciones ontológicas, es decir, implicaciones para las maneras en las
que entendemos cómo el mundo se constituye o está estructurado en (clases) de entes, por
ello, no debe extrañarnos que Carnap recomendara con genuino entusiasmo que Thomas Kuhn
escribiera una monografía (que sería publicada en 1962 con el nombre de La estructura de las
revoluciones científicas) en la colección de la Enciclopedia de la ciencia unificada, ese sueño
editorial de Neurath que pretendía difundir la filosofía científica de los empiristas lógicos.
Como le dice Carnap a Kuhn en la carta en la que le comunica que su monografía va a aparecer
pronto en la colección publicada por la editorial de la Universidad de Chicago: <<Encuentro
muy iluminador [sobre todo] el paralelo que usted establece [entre la manera que las teorías
cambian] y la evolución Darwiniana ... [y el énfasis en la idea que] las teorías no están dirigidas
hacia una teoría perfecta
final, sino que es un proceso de mejoramiento de un instrumento. En mi propio trabajo en
lógica inductiva, en años recientes he llegado a una idea similar ...>>. Neurath ciertamente
hubiera estado de acuerdo con Carnap en esto. Una famosa discusión que tuvo lugar en la
revista Erkenntis en los años treinta entre Carnap y Neurath, giraba precisamente alrededor de
la cuestión de si los marcos lingüísticos de las teorías científicas no tenían implicaciones
cognitivas, como pensaba Carnap (en los años treinta), o si más bien ese marco lingüístico
debía verse como cognitivamente significativo, con implicaciones para la manera de estructurar
el mundo en conocimiento, como pensaba Neurath. En los años sesenta Carnap le da la razón a
Neurath y a Kuhn en un punto filosóficamente crucial que muchas veces se toma como el
punto de inflexión que distingue entre la "vieja" y la "nueva" filosofía de la ciencia.
En conclusión, la historia de la filosofía de la ciencia en el siglo XX, y en particular la histona del
positivismo en la filosofía de la ciencia, es un tema muy complejo que no puede reducirse a la
pretendida oposición entre "positivistas" y "postpositivistas", eje alrededor del cual tienden a
plantearse los problemas en buena parte de la filosofía contemporánea de la ciencia. El caso de
la filosofía de Otto Neurath es un buen ejemplo de cómo la historia de los problemas
filosóficos,
y en particular el problema de las implicaciones cognitivas de las prácticas lingüísticas no
obedecen a distinciones artificiales como la supuesta distinción entre "positivistas" y
"postpositivistas".

You might also like