Professional Documents
Culture Documents
utilizados. Los denominados estudios metaanalíticos se encargan aplicada entre otros por E. L. Thorndike, H. Ebbinghaus e I. P. Pavlov
después de sintetizar los resultados principales, identificando la mayoría durante el primer cuarto del siglo en psicología experimental y, tras
de las contingencias causales predicadas por la teoría esencialista y complejas transformaciones, se practica hoy entre los seguidores de la
permitiendo la generalización de las relaciones causa-efecto. Un corriente skinneriana del “Análisis Experimental de la Conducta"
tratamiento profundo de los estudios metaanalíticos se aborda en una (Johnston y Pennypacker, 1980). El objetivo esencial de esta concepción
compilación de Cook y otros (1992) y en una obra enciclópedica es estudiar la conducta individual de uno (o de unos pocos) organismos,
recientemente editada por Cooper y Hedges (1994). usualmente bajo un rígido control experimental basado en las técnicas
de eliminación y constancia de variables extrañas, con el objetivo de
Dos tradiciones de la investigación experimental encontrar relaciones funcionales estables entre la conducta y las
variables que la determinan.
Por otra parte, no existe una concepción monolítica de la El enfoque metodológico científico-natural tuvo su punto álgido a
investigación experimen tal. Dos diferentes tradiciones de investigación finales del siglo XIX y principios del XX; reducido inicialmente a los
experimental conviven actualmente en la práctica científica moderna, a confines del laboratorio y a la investigación básica, pasó después a
saber: fundirse con la investigación desarrollada en contextos aplicados durante
a) Por un lado, existe un tipo clásico de experimentación, más la década de los 60 y con la ulteriormente refinado, durante las décadas
característico de las ciencias físicas y naturales y basado en la siguientes, originando un peculiar tipo de metodología experimental
variabilidad intraindividual, donde algún tipo de intervención discreta llamada metodología de caso único. Los aspectos cruciales de este
se aplica en el contexto del laboratorio sobre muestras idealmente modo de proceder se abordan en otro lugar en este mismo texto (véase
"puras" de materiales, con la finalidad de establecer predicciones Capítulo 6).
numéricas precisas. El marco del laboratorio permite a los La segunda tradición experimental, de antecedentes menos remotos
investigadores un control óptimo de las condiciones físicas y el y vinculada con la investigación en ciencias sociales y el estudio de las
aislamiento de materiales y variables dentro de cámaras protectoras, diferencias individuales, se convirtió hacia mediados de siglo en la forma
tubos de ensayo esterilizados, etc. Este tipo de tradición experimental, más común de investigación comportamental al mismo tiempo que el
que Cook y Campbell (1986, p. 141) denominan tradición del control y enfoque científico-natural caía en descrédito. En psicología y disciplinas
aislamiento experimental, es el que se impuso en ciencias naturales afines el control experimental óptimo de las infinitas variables extrañas
durante los siglos XVII y XVIII. practicado por el enfoque experimental tomado de las ciencias físicas
b)Por otro lado, existe otro tipo más reciente de experimentación, resultaba en ocasiones imposible de obtener y, cuando se lograba, la
más característico de las ciencias sociales y basado en la variabilidad conducta resultante aparecía trivial e irrelevante, en particular cuando el
interindividual, consistente en sustituir el control y aislamiento estudio de la conducta se realizaba en marcos naturales, lejos del
experimental por el control estadístico obtenido fundamentalmente laboratorio. Como consecuencia del desarrollo del razonamiento
mediante procedimientos de asignación aleatoria de múltiples estadístico moderno, de la mano de sir R. Fisher, J. Neyman, E. S.
muestras a las condiciones experimentales. Este enfoque fue, en gran Pearson y A. Wald, la tradición del control estadístico desarrolló el
medida, elaborado en el contexto de la investigación agrícola por experimento aleatorio, basado en la comparación de grupos compuestos
Fisher y colaboradores (Fisher, 1935) e importado después a la de unidades de respuesta asignadas al azar y tratados diferentemente.
psicología y disciplinas afines, aunque existen interesantes Esta idea se convirtió en el enfoque normativo de la investigación ex-
antecedentes de esta tradición (por ejemplo, McCall, 1923). Cook y perimental para las ciencias sociales. (Véase Capítulos 3 y 5.)
Campbell (1986, p. 142) lo denominan tradición del control estadístico. La metodología cuasi-experimental se desarrolló precisamente en el
Curiosamente, ambas concepciones de la experimentación se seno de esta tradición. Partiendo del experimento aleatorio como el
practican actualmente en las ciencias del comportamiento (Ato, 1991). marco ideal para el establecimiento de relaciones causa-efecto,
La primera concepción fue adoptada por G. T. Fechner y W. Wundt, propusieron alternativas al experimento aleatorio conservando todas las
empleados en la investigación a sus correspondientes constructos de b) Las Variables No Controladas constituyen el resto de
referencia (validez de constructo). variables extrañas. A su vez pueden distinguirse dos grandes
Por su parte, Cronbach (1982) elaboró el modelo T-R-U-C-O, que tipos:
tratamos más adelante, como la estructuración de un conjunto de i) Las Variables Aleatorizadas (clase III) son
aspectos involucrados en una investigación: Tratamiento, Respuesta, variables extrañas no controladas que se tratan como
Unidades, Contexto y Ocasión, aunque éste último no fue inicialmente errores aleatorios. La aleatorización puede ser considerada
propuesto por este autor. En cualquier caso, este esquema puede ser desde otra perspectiva como una forma de control
también potencialmente utilizado para valorar la calidad de la inferencia experimental, pero diferente del utilizado para variables de
causal obtenida en una investigación. la clase II.
Gran parte de los debates actuales se centran en las virtudes de uno ii) Las Variables Perturbadoras (clase IV) son
u otro tipo de conceptualización (Campbell, 1986; Mark, 1986; Cook y variables extrañas no controladas que pueden relacionarse
Shadish, 1994). Pero una teoría de la validez, con los matices que se con las variables explicativas produciendo en ocasiones
quieran introducir, puede en la práctica aplicarse con provecho para una situación denominada confundido.
juzgarla calidad de la investigación en muchas disciplinas aplicadas En general, un diseño de investigación es tanto más eficiente cuantas
(Wortman, 1983, 1994; Ato, 1991; Ato y Rabadán, 1991). más variables de la clase IV sea capaz el investigador de trasladar a la
clase II. La función de las pruebas estadísticas consiste en distinguir el
El papel de la aleatorización efecto sistemático de las variables de la clase I de los efectos aleatorios
de las variables de la clase III dentro de niveles de probabilidad
Las variables en el esquema de Kish especificados.
El objeto de la aleatorización en una investigación experimental es el
En el esquema propuesto por Kish (1975; 1987) se distingue entre traslado de todas las variables de la clase IV ala clase III. En un
dos grandes tipos de variables, a saber: experimento ideal, no existen variables de la clase IV; algunas variables
1) Las variables que son el fundamento de la relación perturbadoras han sido trasladadas a la clase II (mediante control
causa-efecto objeto de investigación son las Variables Explicativas experimental o estadístico) y la gran mayoría son variables de la clase
(clase I). Las que actúan como supuestas causas son las variables III. Pero lo deseable es que se inviertan los términos, puesto que al
independientes o variables de tratamiento (predictores) y las que se colocar variables perturbadoras en la clase II se evitan los efectos
toman como efectos son las variables dependientes o variables de perjudiciales que tendrían de encontrarse entre las variables de la clase
respuesta (criterios). III. Además, la separación de variables de la clase I de la clase III
2) Todas las variables ajenas a las que conforman la mediante aleatorización de todas las variables extrañas de la clase III
relación causal son Variables Extrañas. Puede distinguirse a su vez supone la independencia entre ambos grupos de variables y las pruebas
dos grupos de variables extrañas: estadísticas contrastan los efectos de las variables aleatorizadas contra
a) Las Variables Controladas (clase II) constituyen un grupo las variables explicativas.
selecto de variables extrañas que pueden ser adecuadamente Pero en una investigación cuasi-experimental, la incorporación de
controladas por medio del diseño de investigación. El control una (o más) variable/s perturbadora/s como variables de la clase II es un
puede ejercerse mediante técnicas de selección (control objeto en sí mismo, debido a que no existe aleatorización y por tanto no
experimental), mediante técnicas de estimación (control es posible trasladar ninguna variable extraña de la clase IV a la clase III.
estadístico) o por ambas. En cualquier caso, tales En tal caso, las variables perturbadoras pueden presentarse con
procedimientos se utilizan con el objeto de reducir los errores facilidad en situación de confundido. Las pruebas estadísticas contrastan
aleatorios de las variables de la clase lE o los efectos de sesgo en este caso los efectos de las variables explicativas de la clase I contra
de las variables de la clase IV. las variables aleatorizadas de la clase III (si existen) confundidas con los
efectos desconocidos de las variables de la clase IV. Más adelante otro grupo de niños, también desventajados, que no recibirá el programa
volveremos sobre ello. (GC).
Un problema inicial concierne al modo como los niños se asignan a
La variable de asignación una de las dos condiciones. El objetivo esencial reside en asegurar que
los niños obtengan puntuaciones similares en desarrollo cognitivo antes
El diseño experimental típico posee dos características distintivas de comenzar la administración del programa. La única forma de
esenciales: garantizar este objetivo es acometer el proceso de asignación de niños a
a) El control/manipulación activa de (al menos) una variable una u otra condición sobre la base de alguna variable no relacionada con
independiente. la medida obtenida en el test.
b) El uso de una regla de asignación aleatoria para asignar sujetos La razón de ser del diseño experimental es precisamente que la
a los niveles de la variable independiente. variable de asignación no correlaciona, dentro de límites probabilísticos,
Mientras que, tal y como lo entendemos aquí, el diseño observacional con ninguna otra variable, es decir, es una variable cuyos valores se han
y el diseño de encuesta no cumple ninguna de estas dos características, generado aleatoriamente. En el contexto del ejemplo, para conseguir
el diseño cuasi-experimental cumple con la primera, pero no con la este objetivo, se precisa decidir que cada niño reciba el programa o no lo
segunda. Por el contrario, el diseño experimental con las dos. reciba sobre bases estrictamente aleatorias. La regla de asignación de
A este aspecto, Judd y Kenny (1981, cap. 2) han distinguido entre sujetos a uno de los dos grupos se dice entonces conocida y aleatoria y
tres procedimientos para asignar sujetos a tratamientos. La variable (real su propósito es la equivalencia inicial entre GE y GC.
o ficticia) que produce el reparto de los sujetos entre los tratamientos es Nótese que, si GE y GC son inicialmente equivalentes, en ausencia
la variable de asignación y su regla de correspondencia es la regla de de efectos debidos al programa, es esperable que alcancen al final del
asignación. Partiendo del caso más simple, donde sólo hay dos grupos, mismo puntuaciones iguales o muy similares. Resulta útil imaginar la
un grupo experimental (GE) que recibe un tratamiento y un grupo de variable de asignación como una variable con dos valores (1 para el GE
control (GC) que no lo recibe, la asignación puede ser: y 0 para el GC) que se generan de forma estrictamente aleatoria. Así,
1) Aleatoria. Una vez seleccionada una muestra de cierta población, por ejemplo, la tabla siguiente presenta las puntuaciones en desarrollo
todos los sujetos de la muestra son asignados al azar a uno de los cognitivo (DC) de 100 sujetos que se asignan a grupos siguiendo una
dos grupos (GE y GC). En esta situación puede afirmarse sobre regla aleatoria donde es notorio que la asignación a grupos es
bases probabilísticas que los grupos son iguales antes de iniciar la independiente de la puntuación obtenida por el sujeto en desarrollo
administración del tratamiento en un abundante conjunto de cognitivo (DC).
variables (denominadas variables aleatorizadas en el esquema de Sujeto DC Grupo V. Asignación
Kish). 1 41 GC 0
2 62 GE 1
2) No aleatoria pero conocida. Los sujetos se asignan a uno de los dos 3 39 GE 1
grupos (GE o GC) en función de la puntuación obtenida en un 4 43 GC 0
pretest de la misma medida utilizada para evaluar el impacto del 5 46 GE 1
tratamiento. … … … …
96 49 GC 0
3) No aleatoria ni conocida. No se conoce exactamente sobre qué 97 60 GE 1
variable/s se constituyen los grupos GE y GC. 98 54 GC 0
Explicaremos estos conceptos en el marco de un ejemplo. 99 45 GC 0
Supongamos que un investigador se interesa por evaluar el impacto de 100 57 GC 0
un programa de educación compensatoria sobre el desarrollo cognitivo En general, en contextos sociales y educativos, la aplicación de una
de los niños medido con una conocida prueba. Para ello, decide trabajar regla de asignación aleatoria tropezará con el rechazo de los padres y
con un grupo de niños desventajados que recibirá el programa (GE) y profesores. Una solución quizás más aceptable, aunque algo desviada
del propósito de la investigación, consistiría en administrar en el contexto variable de asignación de forma indirecta, utilizando medidas pretest
de una consulta psicológica escolar el test de desarrollo cognitivo para ajustar las diferencias en el postest.
administrar el programa al subconjunto de niños que obtuvieran
puntuaciones por debajo de una puntuación de corte predeterminada y Ventajas y desventajas de la aleatorización
no administrarlo al subconjunto que obtuvieran puntuaciones por encima
de tal puntuación de corte. Al término del periodo de tratamiento, los La principal virtud de la aleatorización es que, con alta probabilidad,
individuos participantes volverían a ser evaluados con el mismo los dos grupos 4o-básico serán inicialmente similares en la variable
instrumento a fin de determinar el impacto del programa. En este caso, la dependiente. La única diferencia sistemática existente entre ambos es
regla de asignación no es aleatoria, aunque sí es conocida puesto que la que uno (el GE) recibe el tratamiento, intervención o programa de interés
administración del tratamiento depende del resultado inicial obtenido en mientras que el otro (el GC) no recibe el tratamiento. Por tanto, en
el test de desarrollo cognitivo. La variable de asignación en este caso ausencia de efectos de tratamiento, la distribución de la variable
de
hace los grupos deliberadamente no equivalentes, pero las diferencias pendiente será similar en ambos grupos.
son susceptibles de ajuste estadístico en el postest. Así, suponiendo una Anderson et al (1980, págs. 32-35) han destacado las siguientes
puntuación de corte de 46 puntos, la asignación a grupos de la tabla propiedades de la aleatorización:
anterior consistiría en asignar a sujetos al GE si obtienen puntuaciones 1) La aleatorización generalmente implica una distribución
iguales o superiores a 46 y al GC si obtienen puntuaciones inferiores, y similar de las características de sujeto en cada grupo y por tanto
entonces la situación queda como sigue: facilita la inferencia causal. Si el número de sujetos es grande, es
V. improbable que los grupos difieran con respecto a alguna
Sujeto DC Grupo
Asignación característica que pueda afectar al resultado bajo estudio.
1 41 GC 0 2) La aleatorización elimina los sesgos de selección. Si una
2 62 GE 1 muestra seleccionada de una población se asigna a grupos
3 39 GC 0 mediante una regla de asignación aleatoria, no existe ninguna
4 43 GC 0 posibilidad de que los sesgos o preferencias iniciales de los in-
5 46 GE 1 vestigadores sobre la naturaleza de los sujetos a quienes se
… … … … administrará el tratamiento, intervención o programa puedan influir
96 49 GE 1 en los resultados.
97 60 GE 1 Aunque la aleatorización tiende a equilibrar los dos grupos con
98 54 GE 1 respecto a potenciales variables perturbadoras, no excluye
99 45 GC 0 absolutamente la posibilidad de que ambos grupos no queden
100 57 GE 1 equibrados en una o más características individuales. Esta
posibilidad es tanto menor cuando mayor es el tamaño de los
En muchas ocasiones se presentan situaciones en las que la regla de grupos.
asignación no es aleatoria ni se basa en una variable conocida. En 3) La aleatorización proporciona una base para la
nuestro caso, por ejemplo, si se deseara aplicar el programa de inferencia estadística. El proceso de aleatorización permite asignar
educación compensatoria en el marco de un aula especial ya constituida probabilidades a diferencias observadas en la variable dependiente
(GE) y comparar con otra aula especial también existente (GC). El bajo la hipótesis (nula) de que el tratamiento, intervención o
problema que se plantea entonces es saber sobre qué influencia/s se ha programa no ejerce efecto alguno y practicar en consecuencia las
podido generar la variable de asignación. Es extremadamente difícil correspondientes pruebas de significación.
igualar GE y GC sobre la base de la variable de asignación, porque es Con todo, existen varias razones que aconsejan el empleo de
desconocida. En tales casos es conveniente intentar igualar sobre la técnicas de control diferentes ala aleatorización en ciertos casos.
como para quienes no lo llevaban: TM(No I > 100) = 8/10= 0.800, una una tercera (la "Velocidad del vehículo"): (X2MH = 0.003; P = 0.958, lo que
tasa más de 20 veces superior a la anterior. conduce a admitir la hipótesis nula de no relación entre ambas variables,
y por tanto, la supuesta relación encontrada en el Cuadro 2.1 entre el
CUADRO 2.2. Cuadro 2.1 en función de la velocidad del vehículo. uso del cinturón y el estado del conductor se disipa tras controlar la
velocidad del vehículo en el momento del accidente (Cuadro 2.2).
La razón que justifica la relación espuria encontrada entre el uso del
Velocidad Uso del Estado del conductor Tasa de cinturón y el estado final del conductor accidentado se debe
del vehículo cinturón mortalidad seguramente a que la probabilidad de utilizar el cinturón de seguridad es
Muerto Vivo Total
mayor entre conductores precavidos, que suelen respetar las señales de
Sí 2 53 55 2/55 = 0.036 tráfico y conducir con prudencia, que entre conductores arriesgados, que
<100 Km/h No 1 29 30 1/30 = 0.033 pasan por alto las señales de tráfico y conducen con grave riesgo de sus
vidas. Las probabilidades respectivas son, para quienes conducían a
Total 3 82 85 3/85 = 0.035 menos de 100 Km/h, 55/85 = 0.647 y para quien conducían a más de
Si 4 1 5 4/5 = 0.800 100 Km/h., 5/15=.333, aproximadamente la mitad.
No 8 2 10 8/10 = 0.800 Compárense, para matizar en mayor medida estos conceptos, los
>100 Km/h datos del Cuadro 2.2 con los del Cuadro 2.3. Observe ahora que,
Total 12 3 15 12/15 = 0.800 dependiendo de los niveles de la variable “Velocidad del vehículo", las
tasas de mortalidad obtenidas usando o no el cinturón de seguridad son
netamente diferentes. Circulando a menosde 100 Km/h, no hay
Como probablemente habrá ya sospechado, estos datos son diferencias entre las tasas de mortalidad: TM (Si |< 100) = 4/44 = 0.091 y
hipotéticos. Se inspiran en un ejemplo similar desarrollado por Anderson TM (No | < 100) = 3/33 = 0.091, mientras que circulando a más de 100
y otros (1980, p. 2-3). Su objetivo no es en absoluto impugnar la Km/h, difieren por un factor de 6.85: TM(Sí |> 100) = 2/16 = .125 y
indiscutible utilidad del cinturón de seguridad, sino ilustrar de una forma TM(No/ > 100) = 6/7 = 0.857.
intuitiva y didáctica el importante problema interpretativo que supone la
exclusión de una variable importante. La variable "Velocidad del CUADRO 2.3. Cuadro 2.2 reformulado con nuevos datos empíricos.
vehículo" es, en este contexto, una tercera variable o variable de
confundido porque enmascara o confunde el efecto que la variable que Tasa
actúa como independiente ("Uso del cinturón") posee sobre la de- Velocidad Uso del Estado del conductor
de
pendiente ("Estado físico final del conductor"). del vehículo cinturón Muerto Vivo Total
mortalidad
Nótese que, para cada uno de los niveles de la variable "Velocidad Sí 4 40 44 4/44 = 0.091
del vehículo", el uso o no del cinturón de seguridad no tiene ningún No 3 30 33 3/33 = 0.091
efecto sobre las tasas de mortalidad y por tanto puede afirmarse que el <100 Km/h
"Uso del cinturón" es una variable irrelevante. Su relación con el "Estado Total 7 70 77 7/77 = 0.091
físico del conductor" después del accidente se denomina espuria porque
se difumina como tal relación (o sea, pasa a ser cero) después de tomar Si 2 14 16 2/16=0.125
en cuenta los niveles de la variable "Velocidad del vehículo". >100 Km/h No 6 1 7 6/7 = 0.857
Esta relación espuria puede comprobarse empíricamente con el Total 8 15 23 8/23 = 0.348
estadístico de Mantel-Haenszel (1959; véase Fleiss, 1981), que prueba
la relación funcional entre dos variables categóricas binarias (en el
ejemplo, el "Uso del cinturón" y el "Estado del conductor") controlando Esta situación sugiere, contrariamente al caso anterior, que el uso del
cinturón no es una variable irrelevante, y por tanto no es espuria, puesto
que la relación se mantiene después de tomar en cuenta la variable de tercera variable, y la relación es espuria, lo cual demuestra que la
confundido. Aplicando la prueba de Mantel- Haenszel (χ2MH = 4.650; P = variable independiente es una variable irrelevante y que no existe
0.031, rechazamos la hipótesis nula de no relación funcional entre el uso un vínculo causal con la variable dependiente. En esta situación
del cinturón y el estado físico del conductor controlando la velocidad del se dice que la tercera variable es una auténtica variable de
vehículo. Nótese además las escasas diferencias encontradas en las confundido.
probabilidades respectivas de utilizar el cinturón de seguridad entre b) En el Cuadro 2.3, la relación entre variable independiente y
conductores que conducían a menos de 100 Km/h. (una probabilidad de variable dependiente se mantiene cuando se toma en cuenta la
44/77 = 0.571) y los que lo hacían a más de 100 Km/h. (una probabilidad tercera variable, pero la relación es diferente en función del nivel
de 16/23 = 0.696). Pero lo más importante en este caso es comprobar de aquélla. En este caso se dice que la tercera variable es una
que las tasas de mortalidad de los que llevan o no cinturón es la misma variable moderadora.
para los que conducían a menos de 100 Km/h. (TM de 0.091 en ambos
casos) y netamente diferentes para los que conducían a más de 100 El efecto del confundido
Km/h, una situación que induce a sospechar la existencia de interacción
entre del "Uso del cinturón" y la "Velocidad del vehículo". En esta Veamos otro ejemplo. Un investigador X desea saber si un programa
situación, se dice que la velocidad del vehículo es una variable de adiestramiento cognitivo produce diferencias en riqueza de
moderadora de la relación funcional existente entre el uso del cinturón y "Vocabulario" en niños de primer ciclo de primaria. Para ello utiliza dos
el estado físico del conductor tras el accidente. grupos de niños, uno de los cuales (GE) fue tratado con el programa
En resumen, la distorsión que una tercera variable produce sobre la mientras que el otro (GC) no siguió ningún programa específico de
relación funcional existente entre dos variables explicativas es enriquecimiento. La asignación a los grupos fue establecida por la
subsidiaria del cumplimiento de dos condiciones básicas: administración del colegio donde tuvo lugar la experiencia, y utilizó como
GE alumnos voluntarios de primer ciclo y como GC sujetos tomados de
1) La tercera variable muestra una alta relación con la las mismas aulas.
variable de respuesta. Esta condición se cumple en ambos casos. Resultó que las distribuciones de "Edad" de ambos grupos eran
En el Cuadro 2.2, tomando los totales de fila correspondientes (3, netamente diferentes y presentaban un promedio mayor en el GE que en
82, 12 y 3) se rechaza la hipótesis nula de independencia (X21 = el GC. En concreto, los promedios de edad (enmeses) fueron, para el
58.478; P = 0.000) y en el Cuadro 2.3, con los totales de fila grupo experimental, XGE = 80.410 y para el grupo de control, XGC =
respectivos (7, 70, 8 y 15) también se rechaza (X21¡ = 9.168; P = 69.820.
0.002). Los resultados finales del programa se exhiben en la Figura 2.1. Las
2) La tercera variable se relaciona funcionalmente con la pendientes de regresión para los grupos experimental (GE) y control
variable independiente. Esta condición se cumple en el Cuadro 2.2, (GC) fueron, respectivamente:
ya que tomando los totales de fila correspondientes (55, 30, 5, 10) y YGE = bo E + b,XcE = -24.770 + 1.994XGE
aplicando una prueba al uso obtenemos una asociación YGC = b0GC + b1XGC = -90.057 + 2.042XGC
estadísticamente significativa (X21 = 5.229; P = 0.022) entre la
velocidad del vehículo y el uso del cinturón. Pero no se cumple en el
Cuadro 2.3, ya que aplicando una prueba de asociación sobre los
totales de fila correspondientes (44, 33, 16 y 7) obtenemos que
ambas variables son independientes (X21 = 1.139; P = 0.286).
Respuesta (supuesto efecto) para alguna población o Universo en algún ajenas al tratamiento) y generalizable (puede extrapolarse a otras
Contexto físico y en una Ocasión temporal localizada. Los elementos de situaciones diferentes).
este argumento se resumen en el acrónimo T-R-U-C-O. Dos ejemplos:
Ambas cuestiones se enraizan en el concepto general de validez. El
primer aspecto corresponde a lo que, siguiendo a Lipsey (1990) y Saxe y
Fine (1981), denominaremos aquí sensibilidad de la investigación,
definida como la probabilidad de que un efecto, si está realmente
presente, pueda ser detectado. Esta es una cuestión objetiva abordable
estadísticamente. El segundo aspecto corresponde a lo que usualmente
se conoce por validez de la investigación, y se refiere a la verosimilitud
de que lo que se detecta sea, de hecho, el efecto (teórico) por el que el
investigador se ha interesado. Esta es una cuestión eminentemente
subjetiva que no es empíricamente abordable.
La distinción se fundamenta además en los conceptos de sesgo y
error. Cuando se estima un efecto de tratamiento, la subestimación o
sobreestimación de la magnitud del efecto es un sesgo e indica que se
ha producido algún tipo de confundido. Sin embargo, puede suceder que
EDAD (en meses)
el efecto de tratamiento se haya estimado sin sesgo pero que ocurra
Figura 2.3. Descomposición del efecto de tratamiento en ausencia de algún error al concluirse que el tratamiento es significativo, cuando de
sesgo. hecho no lo es (error tipo I) o al concluir que el tratamiento no es
significativo cuando en realidad sí lo es (error tipo II).
a) El programa "J" de enriquecimiento cognitivo mejora las Esta situación se produce porque tal conclusión se adopta en base al
habilidades lingüísticas de niños de baja extracción social. resultado de una prueba estadística, que en términos muy generales
b) La campaña publicitaria "K" sobre el peligro del tabaco puede definirse como una razón entre un efecto de tratamiento
es efectiva para reducir el hábito en personas de alto nivel educativo (componente sistemático), en el numerador, contra otras fuentes de
que viven en grandes ciudades. variación no sistemáticas, ajenas al tratamiento (componente aleatorio),
en el denominador. Un equilibrio inadecuado entre ambos componentes
Cuando se diseña una investigación, los constructos tratamiento o puede producir conclusiones inapropiadas.
causa (el programa "J" y la campaña publicitaria "K" en el ejemplo) y
respuesta o efecto (habilidades lingüísticas y reducción del hábito) tienen La tipología de la validez de Campbell y colaboradores 1) La tipología de 1963
que ser traducidos en operaciones susceptibles de manipulación y/o
medida. Este proceso se denomina operacionalización. Una vez La tipología de 1963
finalizade la investigación debe calcularse un efecto de tratamiento,
definido como la influencia del tratamiento sobre el resultado, y a Como se apuntó más arriba, fue en un trabajo de Campbell y Stanley
continuación plantearse dos cuestiones esenciales: (1966), posteriormente publicado de forma monográfica (1966), donde
por primera vez se plantea una tipología de la validez de la investigación,
a) En primer lugar, si el efecto de tratamiento puede ser que distinguía entre:
detectable mediante una prueba estadística al uso. a) La validez interna, que se refiere al grado de confianza
b) En segundo lugar, si el efecto de tratamiento es con que puede inferirse si una relación causa-efecto entre dos (o
representativo y estable (no han intervenido en el mismo causas más) variables es o no interpretable en el sentido apuntado por el
La aparición de ciertas ambigüedades interpretativas llevaron a sus Pese a que la conceptualización de Campbell y colaboradores ha
autores a ensayar más tarde una nueva conceptualización, desarrollada pasado a pertenecer al acerbo metodológico de las ciencias sociales,
a partir de la anterior, que se publicó primero en un manual sobre abundan otras tipologías alternativas. Por ejemplo, Cronbach (1982),
psicología industrial (Dunnette, 1976) y luego en una monografía sobre Krathwohl (1985) y Trochim (1986). Un exhaustivo análisis de Mark
cuasi-experimentación (Cook y Campbell, 1979). (1986) destaca que todas ellas tienen en común la descripción de las
La nueva conceptualización de la validez amplió la dicotomía relaciones causa-efecto cuyos cinco elementos esenciales pueden
interna/externa incorporando dos nuevos tipos de validez (validez de la resumirse con un argumento que refleja el acrónimo T-R-U-C-O:
conclusión estadística y validez de constructo), amplió la lista de
amenazas hasta un total de 33 y proporcionó una definición algo más El tratamiento (T) produce un respuesta (R) con las unidades (U)
explícita de validez: "Utilizamos los conceptos de validez e invalidez para dentro del contexto (C) y en la ocasión (O).
hacer referencia a la mejor aproximación disponible a la verdad o
falsedad de las proposiciones" (Cook y Campbell, 1979, pág. 37).
La justificación y jerarquización de esta tipología, según afirman sus
autores, se fundamenta en la correspondencia con la práctica cotidiana
del investigador, quien se plantea los pasos siguientes durante el
proceso de investigación:
a) ¿Existe una relación funcional establecida entre la
variable de tratamiento y la variable de respuesta?: Validez de la
histórica, respectivamente) mientras que la validez interna está emplear para valorar la consistencia de la relación funcional
representada en la flecha unidireccional existente entre (t) y (r). (sensibilidad).
Nótese la importancia crucial que se atribuye aquí al nivel de Subsisten sin embargo algunas ambigüedades en la lista de
generalización, y por ende el papel que ocupa la teoría en la amenazas propuesta por Cook y Campbell en 1979, y que en parte han
generalización de resultados. Para cada elemento, con excepción de la sido subsanadas en una presentación más reciente (Cook, Campbell y
flecha, existe un nivel de generalización que parte de un elemento Peracchio, 1990).
concreto hasta alcanzar un nivel de generalización óptimo. Así, el Dada una investigación determinada, la evaluación de cada uno de
elemento (u) se refiere a una muestra particular de unidades de los elementos de la lista de amenazas contra la validez no tiene otro
respuesta empleada en una investigación, pongamos por caso, niños objeto que contribuir a que el investigador (o posteriormente, el
desfavorecidos de barrios pobres de colegios de Madrid capital. La evaluador o consumidor de la investigación) descarte todas las fuentes
generalización a una población superior concierne a la validez de verosímiles de sesgo que pueden arruinar su investigación, y en el caso
población y supone la existencia de un nivel de generalización cuya de no asegurar tal descarte, utilizar los procedimientos necesarios para
delimitación y alcance corresponde definir al investigador, que puede que no sean verosímiles las fuentes de sesgo sospechosas.
quedarse a un nivel ligeramente superior, por ejemplo colegios de Sin embargo, para que el esquema resulte atractivo, se precisa una
barrios pobres de la comunidad autónoma de Madrid, o un nivel muy definición sencilla y comprensible de las 33 amenazas que se contienen
superior, por ejemplo colegios de barrios pobres de colegios españoles. en el Cuadro 2.4, utilizando una clasificación más pragmática de las
Lo mismo cabe aplicar al resto de los elementos presentes en el mismas, e incorporando la conceptualización de Cronbach (1982). La
argumento. que proponemos aquí se fundamenta en definiciones más recientes de
Una situación peculiar se presenta en la conexión entre tratamiento y las amenazas (Cook, Campbell y Peracchio, 1990; Ato y Navalón, 1993)
resultado, conexión "única" en lo que concierne al resultado pero y su inserción en una estructura arbórea que facilita en mayor medida su
"exclusiva" en lo relativo al tratamiento (puesto que es posible considerar lectura y recuerdo. Presentamos para cada una de las fuentes una breve
tratamientos alternativos que hayan producido el mismo resultado). Por explicación de su significado. Un análisis más detenido de cada una de
lo tanto, el problema que se plantea aquí es el nivel de exclusividad del las amenarac puede consultarse originalmente en Cook y Campbell
tratamiento (t) para producir el resultado (r). Este es esencialmente el (1976; 1979) y, más recientemente, en Cook, Campbell y Peracchio
concepto de validez interna. (1990). En castellano, puede también consultarse Ato y Rabadán (1991)
Y finalmente, no aparece en el argumento ningún elemento que se y Ato (1991, cap. 6). El resumen de todas las fuentes se encuentra en el
corresponda con la validez de la conclusión estadística. Efectivamente, Cuadro 2.5.
este tipo de validez plantea esencialmente una cuestión objetiva (¿cuál CUADRO 2.5. Amenazas contra la validez: reconceptualización.
es el efecto del tratamiento observado?), y por ello se considera hoy más "Validez Asociados 1. Historia
bien como una cuestión de sensibilidad y no de validez, como interna al tiempo 2. Maduración
apuntamos anteriormente.
Sesgos en
comparaciones Asociados a 3. Administración de pruebas
Hacia un esquema práctico de la validez intrasujeto la medición 4. Instrumentación
son relevantes para el constructo (irrelevancias sobreañadidas al 15. Artefactos de sujeto: los sujetos desempeñan durante la
constructo). En última instancia, se trata también de un problema de investigación papeles específicos que desvirtúan
generalización de los indicadores de tratamiento y respuesta (t,r) a los considerablemente su conducta espontánea y natural (Weber y
constructos correspondientes (T, R). Cook,1972).
10. Explicación preoperacional inadecuada: análisis teórico 16. Artefactos de experimentador: los investigadores se
minucioso de la naturaleza y los componentes del constructo esfuerzan por conseguir que el sujeto obtenga las
para derivar operaciones y métodos de operacionalización que puntuaciones que confirmen su/s hipótesis (Rosenthal y
conducirán a su definición. Rosnow, 1969).
11. Empleo de una operacionalización única: sesgo que
ocurre cuando se define una única operacionalización de un Validez Externa
constructo, ya que la utilización de una sola operación no suele
captar el constructo en su globalidad y obtiene indicadores con —Sesgos de generalización de los constructos (U), (C) y (0).
irrelevancias. Son un conjunto de sesgos relativos a los constructos de Unidades
12. Empleo de un método único de operacionalización: de respuesta, Contexto y Ocasión temporal y que dificultan una
sesgo que ocurre cuando se emplea un solo método de generalización apropiada de los mismos. Puesto que tal generalización
operacionalización, ya que la utilización de un método de presupone que diferentes niveles del contracto presenten la misma
operacionalización único produce indicadores que pauta para cada uno de los diferentes niveles del tratamiento, el
subrepresentan los constructos y contienen irrelevancias. concepto de generalización se convierte en una cuestión de interacción
constructo-tratamiento.
—Sesgos de reactividad de las unidades de respuesta 17. Interacción selección-tratamiento: se conoce también por
Son un conjunto de sesgos que aparecen cuando los sujetos (o las validez de Población. Se refiere ala generalización de (u) a (U).
unidades de respuesta de la investigación) se comportan de forma 18. Interacción contexto-tratamiento: corresponde a la
reactiva, presentando conductas artificiales que se desvían de su denominada validez ecológica. Se refiere a la generalización de
comportamiento natural. La consecuencia fundamental que producen es (c) a (C).
una desnaturalización de los indicadores de tratamiento y respuesta, que 19. Interacción historia-tratamiento: también conocido como
se desvían de sus constructos de referencia correspondientes y por ello validez histórica. Se refiere a la generalización de (o) a (0).
son también en última instancia un problema de generalización. Otros sesgos menores de generalización
13. Efectos reactivos situacionales: incorporan amenazas Incorporan sesgos de generalización relativos a otros
que generan cambios en el comportamiento de los sujetos y se constructos menores, diferentes de los clásicos constructos de
producen en situaciones sociales comparativas. Son la difusión historia, contexto y unidad de respuesta.
o imitación de tratamientos, la igualación compensatoria de 20. Interacción administración de pruebas-tratamiento:
tratamientos, la rivalidad compensatoria y la desmoralización generalización del resultado a otras condiciones de
de los sujetos que reciben los tratamientos menos deseables. administración de prueba diferentes a la utilizada.
14. Adivinación de hipótesis: los sujetos se esfuerzan 21. Interacción instrumentación-tratamiento: generalización
siempre por saber cómo el/los investigador/es desea/n que se del resultado a otras condiciones de instrumentación diferentes
comporten, o sea, por conocer la hipótesis que el investigador a la utilizada.
desea comprobar. En ocasiones en que la hipótesis es sencilla 22. Interacción de tratamientos intrasujeto: generalización
de deducir, pueden generarse comportamientos reactivos. El del resultado de la situación en que los sujetos reciben más de
ejemplo más conocido es el efecto Hawthorne (Roethlisberger un tratamiento a la situación (hipotética) en que sólo reciban
y Dickson, 1939). uno.