Professional Documents
Culture Documents
Contenido:
_________________________________________________________
Este modelo solo sirve para relaciones entre variables que sean lineales, es decir, relaciones que se
comporten según la formula 𝑌 = 𝛼 + 𝛽𝑋 + 𝜀 para el caso de la regresión lineal simple, siendo 𝛼 el
intercepto, es decir el valor que toma la varialbe dependiente cuando la variable independiente es
0, 𝛽 la pendiente es decir, el efecto en Y de un aumento de 1 en X y 𝜀 el error, a saber, el efecto de
variables no observadas que influyen en Y. Para regresiones múltiples la fórmula es similar, con la
diferencia de que incluye varias variables independientes 𝑌 = 𝛼 + 𝛽1 𝑋1 … + 𝛽𝐾 𝑋𝐾 + 𝜀, siendo k el
número de variables independientes incluidas en el modelo.
1
Este índice fue construido mediante la suma de las variables P46A, P46B y P46C de la encueta UDP 2015
(http://encuesta.udp.cl/banco-de-datos/), esto a fin de obtener una variable intervalar que nos permita usar
la técnica, ya que las variables originales son ordinales.
2
Este índice fue construido mediante la suma de las variables P50A, P50B y P50C.
3
La variable sexo ha sido recodificada desde la variable P54, recodificando “hombres” como 0 y “mujeres”
como 1.
mientras que el R cuadrado ajustado, es una modificación del estadístico anterior que penaliza por
cantidad de variables independientes (ya que añadir variables siempre aumenta el ajuste del
modelo). Por otro lado, el valor P asociado al estadístico F (columna Sig. Cambio en F) nos permite
poner a prueba la hipótesis nula de que los coeficientes beta asociados a todos los predictores son
iguales a 0. Al obtener valores p menores a 0,05 (95% de confianza) o 0,01 (99% de confianza)
rechazaríamos la hipótesis nula, y por ende, concluiríamos que al menos uno de los coeficientes
beta, en la población, es distinto de 0. Esto quiere decir que podemos afirmar que en la población,
al menos uno de los predictores del modelo efectivamente influye en la variable dependiente. Hay
que tener presente que la significación del estadístico F nunca es exactamente 0 (SPSS lo aproxima),
por lo cual a la hora de presentar resultados se debe señalar que se obtuvo un p<0,01.
Coeficientesa
Modelo Coeficientes no Coeficientes t Sig. Estadísticas de
estandarizados estandarizados colinealidad
B Error Beta Tolerancia VIF
estándar
1 (Constante) 4,046 ,654 6,188 ,000
Percepción de ,422 ,042 ,357 9,939 ,000 ,960 1,042
efectividad de las
medidas punitivas
Sexo (ref. Hombre) -,550 ,233 -,083 - ,019 ,994 1,006
2,357
Posición política (1 ,102 ,063 ,058 1,616 ,107 ,972 1,028
izquierda - 10 derecha)
Nota al gobierno: -,139 ,079 -,064 - ,077 ,961 1,040
Disminuir la 1,769
delincuencia
a. Variable dependiente: Legitimidad de las detenciones ciudadanas
Esta tabla nos entrega los coeficientes que nos permiten interpretar el efecto de cada una de las
variables independientes sobre la dependiente y escribir la ecuación de la regresión. La constante
corresponde a 𝛼 y nos indica el valor de la variable dependiente en caso de que el valor de todas
las variables independientes sea 0. Los B (no confundir con Beta estandarizados) nos indican el
efecto de cada una de la VI en la VD, controlando por las demás VI, y corresponden a los 𝛽 de la
ecuación. Es importante tener presente que estos coeficientes son estimaciones, por lo cual tienen
asociado un error estándar a partir del cual es posible construir intervalos de confianza para los
efectos (beta) poblacionales, lo cual en SPSS puede encontrarse en la pestaña estadísticos dentro
de la función regresión lineal.
𝐿𝑒𝑔𝑖𝑡𝑚𝑖𝑑𝑎𝑑 𝑑𝑒 𝑙𝑎𝑠 𝐷𝐶 = 4,046 + (0,422 ∗ 𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑑𝑒 𝑙𝑎 𝑚𝑒𝑑𝑖𝑑𝑎 𝑝𝑢𝑛𝑖𝑡𝑖𝑣𝑎𝑠) + (−0,550 ∗ 𝑠𝑒𝑥𝑜) + (0,102 ∗
𝑝𝑜𝑠𝑖𝑐𝑖𝑜𝑛 𝑝𝑜𝑙𝑖𝑡𝑖𝑐𝑎) + (−0,139 ∗ 𝑒𝑣𝑎𝑙𝑢𝑎𝑐𝑖𝑜𝑛 𝑑𝑒𝑙 𝑔𝑜𝑏𝑖𝑒𝑟𝑛𝑜 𝑒𝑛 𝑑𝑒𝑙𝑖𝑛𝑐𝑢𝑒𝑛𝑐𝑖𝑎)
Por último, el valor P (Columna Sig.) asociado al test T (equivalente al test de Wald) nos permite
poner a prueba la hipótesis nula de que el efecto de cada variable independiente es igual a cero (es
decir, que la variable independiente no influye en la variable dependiente para la población). Al ser
p<0,05 (con un 95% de confianza) rechazamos H0 concluyendo que la VI influye en la VD.
3. Comprobación de supuestos
Para una correcta aplicación de un modelo de regresión lineal múltiple debemos comprobar que los
datos cumplen con 7 supuestos que de no cumplirse tendrán diferentes consecuencias negativas en
el modelo.
Para esto podemos utilizar una evaluación gráfica de la relación entre las variables, mediante un
gráfico de dispersión, los cuales podemos encontrar en Gráficos Cuadro de diálogos antiguos
Dispersión/Puntos
En este punto, el programa nos ofrece 5 tipos de gráficos de dispersión, para dar cuenta de una
relación lineal bivariada debemos utilizar un gráfico de dispersión simple. El problema de esta forma
de comprobar el supuesto es que solo sirve para n pequeños, ya que para n mayores el gráfico se
hace in interpretable.
Otra forma de observar relación lineal entre las variables independientes y la dependiente es utilizar
correlaciones bivariadas, las cuales han sido revisadas en guías anteriores.
Para verificar la ausencia de multicolinealidad entre las variables es necesario calcular una matriz
de correlaciones bivariadas, lo cual podemos realizar desde la pestaña de regresión lineal, donde
debemos ir a la pestaña estadísticos y marcar “matriz de covarianzas”.
Una vez hayamos marcado esta casilla, al correr el modelo nos aparecerá una tabla extra con una
matriz de correlaciones, en la cual debemos comprobar que no existan correlaciones altas. Si dos
variables independientes tienen una correlación mayor a 0,8 debe evaluarse si eliminar a una de las
dos del modelo (probar con cual se obtienen mejores resultados) o crear un índice a partir de ambas.
Correlaciones de coeficientea
Modelo Nota al gobierno: Sexo Posición Percepción de
Disminuir la (Control política (1 efectividad de las
delincuencia Hombre) izquierda - 10 medidas
derecha) punitivas
1 Correlaciones Nota al gobierno: 1,000 ,015 ,108 ,153
Disminuir la
delincuencia
Sexo (Control ,015 1,000 -,052 ,063
Hombre)
Posición política ,108 -,052 1,000 -,099
(1 izquierda - 10
derecha)
Percepción de ,153 ,063 -,099 1,000
efectividad de las
medidas punitivas
a. Variable dependiente: Legitimidad de las detenciones ciudadanas
En este caso todas nuestras correlaciones tienen valores muy bajos, menores a 0,2, lo cual da cuenta
de ausencia de correlación.
El VIF nos indica cuanto aumenta el error estándar debido a problemas de colinealidad. La raíz
cuadrada de VIF corresponde a el efecto de la multicolinealidad en el error estándar, es decir, si
obtenemos un VIF de 4, el error estándar será el doble de lo que sería sin problema de
multicolinealidad. Un VIF de hasta 3 resulta aceptable. En este todos los VIF están bajo ese valor.
Coeficientesa
Modelo Coeficientes no Coeficientes t Sig. Estadísticas de
estandarizados estandarizados colinealidad
B Error Beta Tolerancia VIF
estándar
1 (Constante) 4,046 ,654 6,188 ,000
Percepción de ,422 ,042 ,357 9,939 ,000 ,960 1,042
efectividad de las
medidas punitivas
Sexo (Control Hombre) -,550 ,233 -,083 - ,019 ,994 1,006
2,357
Posición política (1 ,102 ,063 ,058 1,616 ,107 ,972 1,028
izquierda - 10 derecha)
Nota al gobierno: -,139 ,079 -,064 - ,077 ,961 1,040
Disminuir la 1,769
delincuencia
a. Variable dependiente: Legitimidad de las detenciones ciudadanas
c. Errores independientes
Para utilizar una regresión lineal el error asociado a cada caso debe ser independiente del de los
demás. En la mayoría de los datos que usamos como sociólogos este supuesto se cumple porque los
casos de las muestras son elegidos de manera independiente. Este supuesto no necesariamente se
cumple en las series temporales ni en las muestras donde de se seleccionan diadas (por ejemplo,
parejas en una encuesta de vida sexual), donde puede ser puesto a prueba mediante un gráfico de
tiempo/ubicación, aunque por lo general en esos casos es preferible optar por otras técnicas como
modelos de autocorrelación.
De no cumplirse este supuesto habrá una inadecuada estimación de los errores estándar de los
coeficientes del modelo y del test de Wald.
Para detectar casos atípicos, una vez dentro de la pestaña de regresión lineal debemos ir a guardar,
y seleccionar residuos estandarizados (o tipificados), lo cual creara una nueva variable llamada
“ZRE_1” que nos indica los residuos estandarizados para cada caso. Se considerarán atípicos los
casos con residuos estandarizados menores a -2 y mayores a 2.
Una vez hecho esto se pude volver a realizar la RL, excluyendo los casos atípicos de la base de datos.
Para esto debemos usar el comando seleccionar casos, revisado en ayudantías anteriores y utilizar
la opción “si cumple la condición” donde debemos introducir la siguiente formula:
Es importante tener presente que, en caso de eliminar los casos atípicos, todas las estimaciones
cambian, por lo cual es importante realizar esta prueba al principio, de modo de evaluar si se
eliminarán o no los atípicos. De no eliminarse los atípicos, debe desactivarse la selección de casos
(en lo que sigue de la guía se seguirá trabajando con casos atípicos).
g. Independencia de X y 𝜀
El error no se debe encontrar relacionado con las variables independientes. Este supuesto no se
puede evaluar utilizando el residuo (estimador del error), ya que el método de mínimos cuadrados
ordinarios asume que el residuo es independiente a X.