You are on page 1of 16

Capítulo 1.

Concepción de la ciencia en el Siglo XX


En el inicio del Siglo XXI la ciencia se encuentra en una encrucijada que pone en
cuestionamiento el paradigma epistemológico reinante durante los últimos tres siglos. La
vigencia de este paradigma hizo posible el avance del conocimiento de manera exponencial
y llevó a la humanidad a contar con adelantos tecnológicos inimaginables.
Si acordamos con Edgar Morin (1) que “un paradigma comporta un cierto número
de relaciones lógicas, bien precisas entre conceptos; nociones básicas que gobiernan todo
el discurso”, podríamos señalar que la revolución científica que comienza en el siglo XX es
la primera de toda la historia que involucra simultáneamente un cambio total de la red de
relaciones lógicas implícitas.
Las revoluciones científicas anteriores implicaban cambios paradigmáticos en el
seno de la ciencia en donde se producían, y a posteriori, originaban ó no cambios en el resto
de los campos científicos. Es así que pueden identificarse distintos momentos, desde
Copérnico pasando por Galileo y Darwin y culminando en Freud en el siglo XIX, en los
que la inversión del discurso se producía en el seno de cada campo científico. Pero estas
revoluciones mantuvieron incólume un concepto que se venía formulado desde los griegos
y reafirmado por Descartes: La “inteligibilidad de la naturaleza” que se alcanzaría a través
de un sistema de ideas generales lógico, coherente y en función del cual pueda explicarse
toda experiencia. Se privilegiaba la razón y su consecuencia directa, el pensamiento
deductivo.
La consecuencia de esta permanencia conceptual fue que los nuevos paradigmas
conservaron dentro de su red relacional la noción de determinismo científico, asociada al
principio de causa-efecto como fin último de todo conocimiento objetivo.
La ciencia moderna tuvo su origen en Galileo cuando, en lugar de contestar los silogismos
de Aristóteles con otro silogismo, subió a la torre de Pisa e introdujo el método de
observación y cálculo como forma privilegiada de alcanzar la objetividad. Pareció alcanzar
su punto culminante en Newton y su formulación de las leyes de la dinámica, que impulsó
a la ciencia a la búsqueda de leyes simples y eternas que explicaran el universo. En este
marco de referencia, el universo era una máquina determinista perfecta, y el descubrimiento
de las leyes que lo gobiernan implicaba el conocimiento del pasado, el presente y el futuro
del mismo.
Las leyes de la física describían un mundo idealizado y en permanente equilibrio.
La red conceptual del paradigma dominante en la ciencia clásica relaciona:
verdades permanentes, causa-efecto, leyes simples, sistemas cerrados, equilibrio, orden,
observador objetivo, razonamiento deductivo, determinismo.
A fines del siglo XIX y comienzos del XX empieza el desmoronamiento de este
marco determinista científico, situación que continúa en los albores del siglo XXI y que
involucra a todos los campos científicos, desde las ciencias físicas pasando por las ciencias
naturales y culminando en las ciencias sociales.
El desarrollo de la teoría atómica hizo caer las certezas mecanicistas, al demostrar la
inutilidad de las leyes newtonianas a nivel microfísico y la teoría de la relatividad asestó un
golpe mortal a la física clásica.
Es así que la teoría mecanicista, que representó un valor incalculable para el
adelanto científico en todos sus campos, se revelaba falsa en sus ideas básicas de fuerzas y
fluidos.
Como sostiene Morin:
Gracias al método que aísla, separa, desune, reduce a la unidad, mide, ha
descubierto la ciencia la célula, la molécula, el átomo, la partícula, las galaxias,
los quásars, los púlsars, la gravitación, el electromagnetismo, el quántum de
energía, ha aprendido a interpretar a las piedras, los sedimentos, los fósiles, los
huesos, las escrituras desconocidas, incluida la escritura inscripta en el ADN. Sin
embargo, las estructuras de estos saberes están disociadas entre sí.”
...Hoy nuestra necesidad histórica es encontrar un método que detecte y no oculte
las uniones, articulaciones, solidaridades, implicaciones, imbricaciones,
interdependencias y complejidades.....
Sólo podemos partir en la ignorancia la incertidumbre, la confusión. Pero se trata
de una nueva conciencia de la ignorancia, de la incertidumbre y de la confusión.
De lo que hemos tomado consciencia no es de la ignorancia humana en general,
sino de la ignorancia agazapada, disimulada, cuasi-nuclear, en el corazón de
nuestro conocimiento reputado como el más cierto, el conocimiento científico. ...La
incertidumbre deviene viático: la duda sobre la duda da a la duda una nueva
dimensión, la de la reflexividad. En fin, la aceptación de la confusión puede
convertirse en un medio para resistir a la simplificación mutiladora. Ciertamente,
el método nos falta desde el comienzo; al menos podemos disponer de un anti-
método en el que la ignorancia, incertidumbre, confusión se conviertan en virtudes.
(El Método pág.25-29)

Señala Morin que la lógica deductiva se muestra insuficiente para dar una prueba
cuando se enfrentan dos concepciones de las partículas: una concepción ondulatoria y una
concepción corpuscular. Niels Bohr demuestra que estas concepciones contradictorias son,
en realidad, complementarias, puesto que empíricamente los dos fenómenos aparecían en
condiciones diferentes.
Si se completa este panorama con la aparición del movimiento azaroso a nivel de
partículas, se comprenderá el cambio en el paradigma que representa la caída de la idea de
simplicidad de las leyes, instalándose las nociones de complejidad e incertidumbre.
Podemos concluir con Morin:
Podemos tanto más tener confianza en estas exclusiones de la ciencia clásica en
cuanto que han llegado a ser pioneras de la nueva ciencia. El surgimiento de lo no
simplificable, de lo incierto, de lo confuso, a través de lo cual se manifiesta la crisis
de la ciencia del Siglo XX es, al mismo tiempo, inseparable de los nuevos
desarrollos de esta ciencia. Lo que parece una regresión, desde el punto de vista de
la disyunción, de la simplificación, de la reducción de la certidumbre (el desorden
termodinámico, la incertidumbre microfísica, el carácter aleatorio de las
mutaciones genéticas) es, por el contrario, inseparable de una progresión en tierras
desconocidas. Más fundamentalmente, la disyunción y la simplificación están ya
muertas en la base misma de la realidad física. La partícula subatómica ha surgido
en forma irremediable, en la confusión, la incertidumbre, el desorden. Cualesquiera
que sean los desarrollos futuros de la microfísica, no se volverá ya al elemento a la
vez aislable, simple e indivisible. Ciertamente, confusión e incertidumbre no son y
no serán considerados aquí como las palabras últimas del saber: son los signos
precursores de la complejidad.

En las tres últimas décadas las investigaciones de Ilya Prigogine y sus seguidores
demuestran que la irreversibilidad, poco considerada por la física, es más frecuente en el
universo que la reversibilidad, por lo que proponen la inclusión del tiempo como variable
para marcar la evolución en la física y prioriza el estudio del desorden como creador de
orden.
Contemporáneamente con la formulación de la física cuántica, dentro de la
psicología, Sigmund Freud descubre una instancia psíquica que llamó Inconciente que
revolucionaría la ciencia de la conducta privilegiando la ausencia de la certeza en el campo
de los sistemas sociales. Tanto Freud como sus continuadores extendieron este concepto a
la conducta social por lo que la complejidad y la incertidumbre se instalan, paralelamente a
las ciencias físicas, también en las ciencias sociales.
Desde Freud ya se sabe que “no se conoce lo que se quiere sino lo que se puede”,
ya que en el hombre actúan otras instancias, además de las concientes, y que tendrán que
ver con su experiencia vital y la de la especie. Esto significa que no es posible un
conocimiento objetivo ya que el aparato psíquico no es un sistema cerrado.
Si se suma a esto, la comprobación desde el campo de las ciencias físicas, de que es
imposible aislar al observador ya que éste interviene modificando las condiciones en el
estudio de cualquier fenómeno físico, comprenderemos los caminos paralelos que siguen
ambos campos científicos.
Los antiguos ideales griegos de inmutabilidad y universalidad del conocimiento y
sus leyes, que sostienen el paradigma de la ciencia moderna, comienzan a caer dando paso
a la emergencia de una concepción indeterminista basada en la incertidumbre y el azar. Los
procesos de no-equilibrio y la participación del caos en la creación del orden aparente del
mundo físico se transformó en una cuestión fundamental para la nueva ciencia.
Estas nuevas teorías, tanto en las ciencias naturales como en las sociales, son señales que
obligan a pensar la naturaleza comportándose de manera más compleja a lo esperado. Ya
no es posible compartimentar el conocimiento, y tratar de comprender los fenómenos como
una sumatoria de sistemas que actúan aisladamente, para pasar a considerar la compleja red
de sistemas en interacción permanente e incorporar dentro del planteo a la incertidumbre y
el azar. Dentro del nuevo paradigma las leyes causales deben interpretarse como leyes
probabilísticas.
Históricamente, la estadística surge como necesidad de la ciencia para cuantificar
aquellas situaciones para las que no existían leyes causales y su intervención era una
situación no deseada pero inevitable dentro del pensamiento científico moderno.
Dentro del nuevo paradigma en ciernes, la función de la estadística se torna irremplazable
ya que se trata de la única metodología cuantitativa que puede medir e interpretar la acción
del azar en el marco de la complejidad inherente a los sistemas sociales.
Aún cuando ya se sabe que es imposible estudiar cualquier sistema de la naturaleza
aisladamente, por la implicancia del propio investigador, esto es más evidente en el estudio
de los sistemas sociales, en los que el hombre y sus relaciones son factores determinantes.
En la génesis de toda conducta social podemos reconocer factores previsibles, que
dependen de la historia y del contexto, y factores imprevisibles en los que no puede
identificarse influencia alguna. Evaluar aspectos de la conducta social implicará poder
discriminar la contribución de ambos factores.
La únicas herramientas que permiten interpretar cuantitativamente los sistemas
sociales desde cualquier mirada disciplinar son las que provee la metodología estadística.
Su aplicación deberá relativizar la lógica racional en favor de una lógica probabilística,
abandonando toda idea de certeza y de verdad.
Si sumamos a este panorama, el volumen creciente de información que es necesario
manejar ágil y eficientemente, se entenderá que las herramientas estadísticas proporcionan
el apoyo necesario para asimilar, criticar y contrastar la información recibida.
Tomando en cuenta la definición de David Susel de la estadística como “el arte de
tomar decisiones inteligentes frente a la incertidumbre” podemos comprender que la
estadística es más un ejercicio de lógica que de práctica matemática.
Siendo la estadística una disciplina matemática que, introduciendo el concepto de
probabilidad permite el acceso a un modo de pensamiento donde la incertidumbre forma
parte del razonamiento científico, suele ser explicada utilizando únicamente un lenguaje
predominantemente matemático.
Frecuentemente, en su enseñanza se prioriza el uso de leyes y procedimientos
mecánicos de aplicación en desmedro de la comprensión de conceptos y de la adquisición
de un pensamiento estadístico, provocando un efecto de ininteligibilidad en estudiantes de
disciplinas sociales, poco familiarizados con los conceptos matemáticos.
Actualmente, el profesional tiene la posibilidad de resolver toda la operación
matemática a instrumentos derivados de la informática, pero que no sabrá utilizarlos si no
conoce la lógica del procedimiento estadístico.
Entender el valor de la significación estadística y por lo tanto su validez como
técnica de investigación social no requiere ningún conocimiento especial y sólo apela a una
lógica específica que se utiliza permanentemente en la vida cotidiana, y en muchas
ocasiones de manera intuitiva.
Las pruebas estadísticas fueron creadas para ayudar al investigador a elaborar
conclusiones más razonables. La deficiente comprensión del nivel de significación de las
pruebas estadísticas es el problema más frecuente en los profesionales que las aplican.
La Psicoestadística es una rama de la psicología que se vale de los aportes de la
estadística para elaborar sus interpretaciones. A partir de su utilización puede operarse
sobre cuestiones que involucren un alto monto de impredictibilidad, como por ejemplo, la
prevención de trastornos psicopatológicos a nivel comunitario. Pero su campo de aplicación
en la investigación es mucho más amplio, y para comprender su importancia es necesario
analizar lo que ocurre en otras disciplinas científicas. Este análisis se centrará, así, en la
consideración del azar como una de las influencias decisivas de la evolución del
conocimiento científico.
La Psicología participa del brillante desarrollo de la ciencia occidental en los
últimos dos siglos. Sus teóricos, en los que sobresalió en forma excluyente Sigmund Freud,
provenían de la medicina y particularmente de la neurología, por lo que su labor estuvo
impregnada por las características predominantes en dichas ramas científicas.
Analizar, en perspectiva histórica, la situación de la ciencia en los orígenes de las
ideas fundamentales de la psicología permitirá comprender mejor los actuales desarrollos y
sus relaciones con otras disciplinas.
1.1. Determinismo científico
La ciencia posibilita una mejor comprensión de la realidad y su método se basa en
un proceso de análisis y crítica desarrollando teorías que se confrontan con la evidencia
empírica y con otras teorías.
En los albores del pensamiento occidental, los presocráticos se preocuparon por dos
cuestiones fundamentales, que aún hoy son fuente de interrogantes para filósofos y
científicos, y pueden resumirse en dos preguntas: ¿El universo se rige por leyes
deterministas? ¿Cuál es el papel del tiempo?.
Estos temas dominaron el pensamiento de los antiguos griegos y, junto con otras
preocupaciones, sirvieron para que legaran dos ideales que han guiado el pensamiento
occidental hasta la actualidad:
La inteligibilidad de la naturaleza, que promueve el desarrollo de un sistema de ideas
generales necesario y coherente, y en función del cuál puedan ser interpretados todos
los elementos de la experiencia.
La democracia, basada en las premisas de libertad, creatividad y responsabilidad
humana.

El conocimiento científico, tal como se interpreta actualmente, nace a partir de la


aparición del método operacional que da origen a la ciencia experimental.
Con este salto cualitativo de principios del Renacimiento, el hombre creyó encontrar
un modo objetivo de estudiar la naturaleza que diferenciaba claramente la filosofía de la
ciencia.
El eslabón inicial de este proceso se ubica en los trabajos de cuatro astrónomos:
Copérnico, Kepler, Galileo y Newton. Estos dos últimos, que además eran físicos,
culminaron sus experimentos con el descubrimiento de la gravedad y la atracción terrestre.
Sobre estos pilares se estructuró el desarrollo de los logros más espectaculares de la ciencia
del Siglo XVII.
A estas leyes habría que agregar los dos principios de la Termodinámica de
Clausius que, además de postular la constancia de la energía del universo, a través del
concepto de entropía interpreta los procesos naturales irreversibles.
A partir del trabajo de estos investigadores surgen los filósofos empiristas para
fundamentar el nuevo método de obtener conocimiento. Babon, Hobbes, Locke, Berkeley
y Hume justifican el empirismo como el único camino para conocer la verdad y al
procedimiento inductivo como el método lógico para deducir conocimientos generales a
partir de experiencias particulares. Estos autores intentaron desarrollar un sistema de
inferencia racional para obtener un conocimiento general. Como consecuencia de esta
visión, el proceso científico era un proceso lineal y acumulativo y las teorías constituían la
organización lógica de las leyes experimentales.
La elaboración de este concepto de ciencia da un paso adelante cuando Comte
fundamenta el positivismo considerando a la experiencia empírica y sus consecuentes leyes
como única fuente de certidumbre.
Pensadores como Poincaré y Pearson, entre otros instalaban a esta ciencia de base
empírica como una guía pragmática para enfrentar la vida.
Tanto para el empirismo como para el positivismo el Universo se constituye a partir
de fenómenos que se conectan casualmente entre sí y dichas conexiones podían descubrirse
a partir del proceso inductivo aplicado al método experimental.
Este camino demostró su enorme potencial al impulsar los grandes descubrimientos
científicos de los últimos tres siglos, que se tradujeron en la amplia hegemonía de las leyes
de la mecánica newtoniana en la física y la concepción kantiana de la filosofía.
Las leyes de Newton explican el movimiento de las partículas materiales en función
del tiempo y eran aceptadas como la expresión del conocimiento ideal, objetivo y completo,
y en ellas el tiempo es reversible y expresa la equivalencia entre pasado y futuro. En
cambio, a partir del Siglo XIX el principio de entropía, también universalmente aceptado,
demostró que el tiempo no es equivalente en pasado y futuro. Algunos científicos han
tratado de explicar esta contradicción con argumentos discutibles y simplificadores.
Hume ya había planteado limitaciones lógicas al conocimiento inductivo, pues
independientemente de cuántas observaciones se hayan hecho de una regularidad, esto no
da ninguna garantía lógica de que volverá a ocurrir del mismo modo en la siguiente
ocasión.
Las hipótesis mecanicistas, que parten de las leyes de la mecánica clásica, que
poblaron las teorías de fuerzas que actuaban a distancia en todos los campos de la
naturaleza, comienzan a tambalear con los descubrimientos de la física atómica, al
demostrar ésta que las partículas atómicas no obedecían a las leyes de Newton y, por el
contrario, tenían movimientos azarosos impredecibles explicados por una nueva ley (de
Schrödinger)..
Puede afirmarse con Susel: “...la concepción mecánica, de valor incalculable para la
ciencia, refrendada por las predicciones que permitió hacer sobre la existencia de planetas
desconocidos, con los cuales se completó el conocimiento astronómico del sistema
planetario, y a la cual se deben miríades de adelantos en todas las regiones del pensamiento
se basaba, no obstante, en ideas mágicas de fuerzas y fluidos que, más que hipótesis eran
fantasías.”
La salida al dilema de Hume fue elaborada por Popper (1972) al postular que toda
teoría, modelo o ley científica es una conjetura de cómo es la realidad. De acuerdo con
Popper, el énfasis del investigador debe centrarse, al contrario de cómo lo plantea la ciencia
tradicional, no en probar que la teoría es verdadera sino en demostrar que no es falsa. Toda
teoría, ley o hipótesis es una conjetura que será valorada en su poder explicativo y general
siempre que supere los intentos rigurosos de refutarlas.
Desde esta perspectiva, los datos experimentales sirven para plantear una hipótesis
científica que se pone a prueba por medio de la crítica lógica y empírica. Si los hechos
apoyan la teoría, no podemos pensar que la justifican sino que, hasta ahora no ha sido
refutada.
Este esquema para entender el conocimiento refuerza aún más la importancia del
razonamiento lógico, que deviene de los filósofos griegos, al enfatizar el mecanismo del
pensamiento hipotético-deductivo aplicado al trabajo experimental.
Este punto de vista hace impensable la inclusión del azar como determinante en algunos
fenómenos como se ha descubierto, por ejemplo, en la mecánica cuántica.
En las últimas décadas, algunos científicos orientados por Ilya Priogine, intentan crear una
nueva formulación de la dinámica que supere la contradicción de la física clásica puesta en
evidencia por la física cuántica.
Prigogine señala que la pretensión de la lógica racional de un encadenamiento
causal, de tal manera que todo efecto tiene una causa y se transforma a su vez en causa de
un efecto posterior, provoca una tensión y contradice la creencia en la libertad del hombre
para poder elegir entre varios caminos a seguir.
A esta paradoja del sentido común W. James la llamó el dilema del determinismo.
Este dilema dispara dos interrogantes: ¿El futuro está dado o en perpetua construcción?,
¿Es la creencia en nuestra libertad una ilusión?. Implícitamente estas cuestiones interrogan
acerca del concepto del tiempo. El tiempo es un concepto incorporado a la física y también
es la dimensión fundamental de nuestra existencia. Este tiempo de la física es el tiempo de
Einstein cuando afirmaba... ”el tiempo es una ilusión”; es el tiempo de las leyes, desde la
física clásica hasta la relatividad y la teoría cuántica, que no distingue entre pasado y
futuro. Es el tiempo de los procesos en equilibrio.
Al desarrollarse la física del no-equilibrio y de los procesos caóticos y demostrarse
que son acontecimientos fundamentales en el desarrollo de los fenómenos naturales en
todos los campos del conocimiento (química, geología, cosmología, biología, ciencias
sociales, etc.) pasado y futuro juegan roles diferentes.
Esta situación dilemática en el campo de las ciencias se denomina la paradoja del
tiempo y es la extensión del dilema del determinismo a la física.
Hoy se sabe que los fenómeno físicos del universo no existen como sistemas aislados y
cerrados y que las condiciones en que se desarrollan son diferentes de punto a punto y
hacen ilusoria la pretensión de las condiciones de equilibrio propuestas por la leyes
mecanicistas.
Esto, que es evidente en las ciencias biológicas y sociales, donde se admite que un
pequeño acontecimiento puede cambiar el curso de la historia, no era tan visible en la
física.
Boltzman, en el siglo XIX creyó posible asimilar el concepto de evolución de
Darwin a los fenómenos físicos pero sus intentos fueron negados por la comunidad
científica.
En la actualidad la mayoría de los físicos consideran a las leyes de la mecánica
cuántica como las definitivas, no distinguiendo un papel diferenciado del tiempo entre
pasado y futuro.
Esta situación puede pensarse desde lo expresado por Susel como resultado de la
necesidad de defenderse ante la incertidumbre que genera el pensar al tiempo como una
variable que afecta la permanencia de las leyes físicas.
Resolver esta paradoja e incorporar el concepto de Prigogine de flecha del tiempo,
en el que el tiempo juega un rol cronológicamente diferente, es el desafío de la ciencia en
nuestros días.
Este concepto aparece a partir de que, los procesos naturales en equilibrio son los
menos, y lo más frecuente son los desequilibrios, que provocan modificaciones
irreversibles a partir de las cuales cambian las condiciones de representatividad de las leyes
físicas. Lo que es aceptado universalmente en el campo de la evolución biológica, se
extiende a otras áreas de la ciencia.
A partir de este nuevo concepto las leyes fundamentales ahora expresan
posibilidades y no certidumbres. Las leyes de la física clásica vinculadas al conocimiento
completo y certero cobran un nuevo sentido al expresar posibilidades.
Como señala Prigogine...”la cuestión del tiempo y el determinismo no se limita a la
ciencia; está dentro del pensamiento occidental desde el origen de lo que denominamos
racionalidad y que situamos en la época presocrática. ¿Cómo concebir la creatividad
humana ó pensar la ética en un mundo determinista?...hoy estamos en el punto de partida de
una nueva racionalidad que ya no identifica ciencia y certidumbre, probabilidad e
ignorancia... Asistimos al surgimiento de una ciencia que ya no se limita a situaciones
simplificadas, idealizadas, mas nos instala frente a la complejidad del mundo real.”
Prigogine sugiere llamar a la nueva dinámica: mecánica estadística.
1.2. Conocimiento científico desde la psicología
Desde la mirada de la psicología, el método experimental, con su concepción
mecanicista, abarca dos aspectos: la superación del dogmatismo filosófico que lo impulsa a
obtener los grandes logros científicos de los últimos siglos, y por otro lado, una tendencia
regresiva hacia fases anteriores del desarrollo en donde reina el pensamiento mágico y
omnipotente expresado en el principio de causa-efecto y su fantaseado horizonte de leyes
universales simples que permitan explicar el pasado, justifiquen el presente y predecir el
futuro.
La visión determinista de la física clásica parecía triunfante en su hegemonía
considerando los descubrimientos de la astronomía y de la física en los siglos XVII, XVIII
y XIX, pero a principios del siglo XX surgen los descubrimientos de la física atómica que
demuestran la no obediencia de las partículas sub-atómicas a las leyes dinámicas de
Newton, y su movimiento azaroso debe explicarse mediante la metodología estadística. Lo
que aparentemente se cumplía en el mundo macroscópico no era verificable en el nivel de
las partículas microscópicas.
Sin embargo, tanto M. Planck como A. Einstein no aceptaron la explicación
probabilística-estadística y hasta el final polemizaron con los físicos que comenzaban a
considerar el azar como una causa más del comportamiento de los fenómenos naturales.
Todo intento de reinterpretación determinista de la física atómica fue refutado pero
aún así la resistencia al cambio por parte de muchos científicos fue ostensible.
Desde el punto de vista psicológico esta resistencia puede interpretarse como una
defensa frente a la angustia provocada por el abandono de la idea de certeza que conllevan
las leyes universales deterministas. La resistencia a abandonar la concepción determinista
que aún hoy se manifiesta, es una defensa, una racionalización que se pone en juego frente
al conflicto que significa abandonar la pretensión omnipotente de alcanzar el conocimiento
universal y completo.
Así como el desarrollo de la física cuántica a fines del siglo XIX fue, sin
proponérselo los propios investigadores, el disparador de una visión indeterminista de la
ciencia, contemporáneamente, en psicología surgen los descubrimientos de S. Freud acerca
del inconciente y su influencia. La imposibilidad de la certeza absoluta y definitiva, que
comienza a esbozarse en la física, se verifica también en la esfera de la conducta. No es
casual que estos dos procesos coincidieran históricamente, como así también que sus
descubridores siguieran aferrados a una visión determinista de la ciencia. La noción de
inconciente instituyó la incertidumbre en la explicación de la conducta a nivel psicológico,
así como la noción del movimiento azaroso de las partículas atómicas lo hizo en la física.
Lo azaroso en psicología habría que buscarlo en el principio de policausalidad con
que opera el funcionamiento psíquico, ya que si bien la aparición de síntomas está ligada a
elementos del pasado, éstos son necesarios pero no suficientes, y debe considerarse la
influencia del contexto con sus connotaciones azarosas.
Freud demuestra que el proceso cognitivo no depende sólo de la conciencia y que
factores inconcientes pueden impulsar a la negación de un aspecto de la realidad ó de una
nueva idea que ponga en peligro los intereses yoicos. Estos ataques a la primacía del yo son
ataques al narcisismo del hombre y si se producen por la aparición de grandes cambios en
la teorías del conocimiento – revoluciones científicas – se transforman en heridas
narcisístas que motorizan la resistencia a dichos cambios.
Freud enfatiza esta situación con su formulación de las tres heridas fundamentales
que ha sufrido el hombre a través de la historia: la primera llamada “cosmológica” se
produce a partir de los descubrimientos de Copérnico del heliocentrismo del sistema
planetario terrestre que desplaza a la Tierra del centro del mismo; la segunda, herida
“biológica”, cuando Darwin demuestra que el hombre proviene de una evolución desde
especies animales inferiores elimina la superioridad abismal que el hombre suponía
respecto de las otras especies; y por último, la herida “psicológica”, que se produce con el
descubrimiento del inconciente y su influencia impredecible y, por lo tanto, incontrolable
sobre la conducta humana. En los tres momentos históricos el hombre sufre un ataque que
pone en peligro la seguridad y la omnipotencia de los intereses yoicos que aseguraban las
teorías vigentes hasta ese momento.
Siguiendo esta línea de pensamiento, D. Susel propone una cuarta herida
narcisísta que se manifiesta en el Siglo XX y la llama “epistemológica”, y que se produce
cuando se demuestra que la Naturaleza puede obedecer a leyes probabilísticas y por lo tanto
no certeras y el hombre debe abandonar sus ideas de alcanzar leyes universales.
En todos estos momentos históricos se produjeron fuertes movimientos de
resistencia a las nuevas teorías, algunos de los cuales aún hoy se manifiestan y que dejaron
huellas a semejanza de los “puntos de fijación” del aparato psíquico, que promueven el
retorno de las teorías perimidas que brindan mayor seguridad yoica
1.3. La Estadística y su aplicación en Psicología
Si bien pueden ensayarse distintas definiciones de Estadística, parece pertinente
partir desde la perspectiva de Susel: “La Estadística es el arte de tomar decisiones
inteligentes frente a la incertidumbre”.
En su análisis Susel señala que el esquema determinista de la ciencia basado en el
modo de pensamiento hipotético-deductivo para elaborar sus teorías universales
sobrevalora el uso de la razón hasta convertirla, en muchas ocasiones, en una
racionalización defensiva que impide el avance científico.
La nueva visión indeterminista utiliza las leyes probabilísticas que incorporan la
incertidumbre presente en todo fenómeno de la Naturaleza y permite tomar decisiones sin
el auxilio de leyes universales. Este esquema, según Susel, valora la inteligencia para
sortear momentos en que la razón no satisface la demanda del científico.
La ciencia debe abandonar su pretensión de leyes universales e ir en pos de leyes
probabilísticas. La nueva ciencia será una ciencia probabilística.
Si bien lo señalado hasta aquí es válido para todas las ciencias, es quizá obvio en las
ciencias sociales, donde se analizan fenómenos que, por su complejidad causal manifiestan
un alto grado de incertidumbre.
El objetivo de la aplicación de las técnicas estadísticas es la predicción, dentro de un
marco de incertidumbre, de la evolución de un fenómeno determinado bajo ciertas
condiciones. En ciencias naturales se analiza el comportamiento de la materia según
diferentes perspectivas – físicas, químicas, etc. – mientras que en ciencias sociales se
estudian problemas mucho más complejos que involucran al hombre con sus diferencias
individuales y sus distintos modos de interactuar.
La complejidad de los fenómenos sociales se traduce en acciones en donde el factor
aleatorio – el azar – es un componente fundamental. La técnica estadística, al operar según
la teoría de las probabilidades, permite analizar y predecir en todo problema en el que
intervenga el azar.
Si la mirada del problema social está centrada en la conducta del hombre en
diferentes circunstancias, la estadística se transforma en una herramienta imprescindible
para la Psicología.
1.4. Cómo opera la Estadística en una investigación científica
Si se quiere sintetizar en tres palabras cómo opera el método estadístico para la
toma de decisiones, puede decirse que la estadística contrasta el azar.
Así como en las ciencias naturales es necesario acudir a modelos para el análisis de
los fenómenos – gases ideales, sistemas aislados en equilibrio, etc. – en ciencias sociales
pueden analizarse los problemas únicamente a partir de modelos que representan lo más
fielmente posible el comportamiento del sistema social en cuestión.
Los modelos deben tomar en cuenta los factores intervinientes y su forma de
interrelación. Por fortuna, existen ciertas regularidades en el comportamiento de los
factores sociales, por lo que hay pocos modelos a los que se debe recurrir eficientemente.
Dentro de estos, el más usado en aplicaciones estadísticas en psicología es el llamado
modelo normal.
Es este curso se estudiará cómo se utiliza el modelo normal para describir y/o
predecir aspectos referidos a fenómenos de comportamiento en sistemas sociales y a señalar
algún otro modelo que se utiliza bajo condiciones particulares.
Un modelo estadístico es un modelo de comportamiento probable del factor
estudiado en el sistema social involucrado bajo ciertas condiciones. Estas condiciones se
establecen para asegurar la aleatoridad del sistema. En otras palabras, describe
matemáticamente cual es el comportamiento probable de dicho factor si todos los
elementos del sistema estudiado tienen la misma posibilidad de intervenir y por lo tanto
pueden elegirse azarosamente.
El método de inferencia estadística permite contrastar los resultados de una
investigación con los valores que establece, para la problemática en estudio, la distribución
de probabilidades que mejor se adapta al conjunto total de los elementos estudiados y del
cual se extrajeron los datos empíricos.
Cuando se inicia una investigación se debe plantear una hipótesis que pueda ser
corroborada a posteriori. Estas hipótesis surgen de los conocimientos previos acerca del
fenómeno estudiado que el investigador posee y que son el soporte que justifican la
necesidad de investigar. Estos datos previos se refieren a los diferentes factores que
determinan el comportamiento de los elementos analizados (unidades experimentales).
En los problemas asociados al comportamiento humano está demostrado que,
cuando se analizan a escala macrosocial, los factores determinantes se distribuyen de tal
forma que los más frecuentes corresponden a valores medios y van disminuyendo en
cantidad los valores que se alejan tanto para un extremo ú otro de la distribución. Esta
característica se intensifica a medida que crece el número de elementos estudiados.
Este comportamiento de los factores sociales puede representarse, como se verá más
adelante, mediante el modelo de la distribución normal de probabilidades. En el contraste
de los datos experimentales con este modelo se basan la mayoría de las técnicas estadísticas
que se utilizan en psicología.
Como ya se señaló, la estadística proporciona una serie de técnicas para organizar la
información científica y tomar decisiones a partir de ella.
Una investigación se refiere, en general, a un conjunto de datos que provienen de
objetos, animales ó personas. Un psicólogo, por ejemplo, puede querer observar si hay
alguna regularidad en la conducta de distintos grupos de pacientes frente a un mismo
estímulo, sabiendo que analizados en forma individual seguramente existen diferencias en
el comportamiento.
La investigación en psicología es, por lo tanto, de capital importancia en áreas como
la de patologías psicosociales (adicciones, alcoholismo, trastornos alimenticios, etc.) para
encarar un tratamiento eficaz ó para tareas en prevención.
Si bien la investigación y el pensamiento estadístico están incorporados al comportamiento
individual, desde un lugar ligado a la intuición y al sentido común, aquí se explorará esta
interrelación desde una mirada más rigurosa y científica.
Bibliografía (adicional a la que figura en el programa de la materia)
Hacking I. (1991) La domesticación del azar. Barceloma: Ed. Gedisa
Morin E. (1977) El Método. Vol. 1. Madris: Ed. Cátedra
Prigogine I. ¿Tal solo una ilusión? Ed. Tusquets, Barcelona (1983)
Prigogine, I. (1991) El nacimiento del tiempo. Barcelona: Ed. Tusquets
Prigogine I. y Stengers I.(1991) Entre el tiempo y la eternidad. Bs. As.: Ed. Alianza
Schnitman D. (Comp.) (1994) Nuevos paradigmas. Cultura y subjetividad. Bs. As.: Ed
Paidos
Wagensberg J. (Comp)(1996) Proceso al azar. Barcelona: Ed. Tusquets
Wagensberg J. (1985) Ideas sobre la complejidad del mundo. Barcelona: Ed. Tusquets

You might also like