You are on page 1of 12

Licenciado: Sergio Guinea

Auxiliar: Mariángela Arrecis

Pasos para comprobar la Violación


de los Supuestos

Paso 1. Como crear un fichero o base de datos en Eviews, para levantamiento de modelos.
1.1. Abrir Eviews
1.2. seleccionar el botón “I will register later” (si fuese el caso, en que saliera
el mensaje colgante)
1.3. si desean utilizar las bases de datos que se encuentran en los ficheros, o
cualquier archivo Excel. Utilizar la siguiente ruta:

1.4. Esto permitirá exportar los datos que se quieran utilizar como base, para levantar el modelo,
ejemplo: fichero Gujarati

1.5. Otra de las formas, para poder subir una base de datos en Eviews, que identificar las variables y datos

1.6. Saldrá un menú colgante donde podrán determinar el periodo que necesitan, pueden ponerlo anual,
semestral, trimestral, diario, entre otros.
Si por ejemplo fuese anual, colocar
start date: 1992
end date: 2017
Están determinando que su fichero sea creado de 1992-2017 con una
lectura anual

Caso contrario si desearan determinar por trimestres o cualquier


división del año, colocar
start date: 1992:1
end date: 2017:3
En este caso, lo que indican a través de los dos puntos, es diferenciar el
trimestre que desean que empiece el fichero, es decir, el primer
trimestre de 1992, al tercer trimestre del 2017.

La base de datos que se utilizó en clases, es la tabla 10.7, los datos los pueden corroborar en Gujarati página 335
Base de datos que utiliza un periodo de 1947-2000
Por lo tanto colocar:
Start date: 1947
End date: 2000

1.7. Esto permitirá crear la base para incluir los datos deseados.

1.8. Colocar en la sección de comandos.


Data (enter), para que les abra la sección de información de variables

1.9. Pegar los datos o escribir uno por uno.


Nota: Eviews, reconoce la primera como variable dependiente (Y), el resto las considera regresoras (X).
Esta base de datos nos permitirá levantar el modelo, el objetivo
principal es medir la relación del consumo (C01) en función del
ingreso disponible (YD), el salario (w) y la tasa de interés (I).
Nota: si desean se puede cambiar el nombre de sus variables, (únicamente dar
doble clic sobre ella)

Codificación de las variables

Consumo Y C01
Ingreso X1 YD
Salario X2 W
Tasa de interés X3 I

Paso 2. Levantamiento del modelo


Modelo econométrico: LogC01= ± β0 ± Logβ1 (YD) ± Logβ2 (w) ± β3 (I) + ԑi

Colocar en el espacio de comandos:


LS LOG(C01) C LOG(YD) LOG(W) I
-Enter-
Lo que se desea es correr la regresión, con logaritmos, la C, determina la constante o intercepto del modelo.
explicación: LS, muestra la codificación para correr una regresión con las siguientes variables… la primera que se introduce es la dependiente (C01),
seguida de la constante (C), posteriormente se coloca todas aquellas variables independientes que se desean incluir en el modelo (xn)

Estimadores

Multicolinealidad, como medirlo


La multicolinealidad es una cuestión de grado y no de clase. La distinción importante no es entre presencia o ausencia de
multicolinealidad, sino entre sus diferentes grados. Como la multicolinealidad se refiere a la condición de las variables
explicativas que son no estocásticas por supuestos, es una característica de la muestra y no de la población.
Como la multicolinealidad es en esencia un fenómeno de tipo muestral que surge de información sobre todo no
experimental recopilada en la mayoría de las ciencias sociales, no hay un método único para detectarla o medir su fuerza.
Lo que se tiene en realidad son ciertas reglas prácticas, algunas informales y otras formales, pero todas reglas prácticas.
(Gujarati Damodar N. , 2010)

1. Una R2 elevada pero pocas razones t significativas. Como ya mencionamos, es un síntoma “clásico” de
multicolinealidad. Si R2 es alta, es decir, está por encima de 0.8, la prueba F, en la mayoría de los casos, rechazará
la hipótesis de que los coeficientes parciales de pendiente son simultáneamente iguales a cero, pero las pruebas
t individuales mostrarán que ningún coeficiente parcial de pendiente, o muy pocos, son estadísticamente
diferentes de cero.
Aunque este diagnóstico es razonable, su desventaja es que “es demasiado fuerte, en el sentido de que la
multicolinealidad se considera dañina únicamente cuando no se puede separar la totalidad de las influencias de
las variables explicativas sobre Y. (Gujarati Damodar N. , 2010)

2. Altas correlaciones entre parejas de regresoras. Otra regla práctica recomendable consiste en observar el
coeficiente de correlación de orden cero o entre dos regresoras. Si éste es alto, digamos, superior a 0.8, la
multicolinealidad es un problema grave. La desventaja con este criterio es que, aunque las altas correlaciones de
orden cero pueden sugerir la presencia de colinealidad, no es necesario que dichas correlaciones sean altas para
tener colinealidad en un determinado caso específico. En términos un poco técnicos: las correlaciones de orden
cero elevadas son una condición suficiente pero no necesaria para la existencia de multicolinealidad, debido a que
puede existir a pesar de que las correlaciones de orden cero o correlaciones simples sean comparativamente bajas
(es decir, inferiores a 0.50). (Gujarati Damodar N. , 2010)
3. Otros Métodos:
a. Factor de Inflación de la varianza (FIV)
b. Índice de Condicionalidad (IC)
c. Elipses
4. Examen de las correlaciones parciales. Debido al problema recién descrito, que se basa en correlaciones de orden
cero, Farrar y Glauber sugieren que deben observarse, en lugar de ellas, los coeficientes de correlación parcial
5. Regresiones auxiliares. Como la multicolinealidad surge porque una o más de las regresoras son combinaciones
lineales exactas o aproximadas de las demás regresoras, una forma de determinar cuál variable X está relacionada
con las demás variables X es efectuar la regresión de cada Xi sobre las variables X restantes y calcular la R 2
correspondiente, que se designa R2 i ; cada una de estas regresiones se denomina regresión auxiliar, auxiliar a la
regresión principal de Y sobre las X.
En lugar de probar formalmente todos los valores R2 auxiliares, se puede adoptar la regla práctica de Klein, que
sugiere que la multicolinealidad puede ser un problema complicado solamente si la R2 obtenida de una regresión
auxiliar es mayor que la R2 global

Desarrollo de cada uno de ellos:

3. Otros métodos
a. Facto de inflación de la varianza
Después de haber corrido la regresión, seguir la siguiente ruta.
1.2.1.1. Para identificar la multicolinealidad se debe observar la
última columna, la cual nos indicara que toda aquella variable:
>10 sufre de una multicolidealidad alta
>30 es un problema serio de multicolinealidad

Lo que permite determinar que dos de las variables sufren de multicolinealidad (YD, W) dado que estas son >30

b. Índice de condicionalidad
Si es >10 establece que hay multicolinealdad
1. Es necesario crear una matriz vacía.
Escribir en la sección de comandos: Sym (3) a1
Explicación de comando: Sym permite crear la matriz, (3) establece las regresoras que posee el modelo (en este caso
únicamente contamos con 3 -YD, W, I-), a1 será el nombre que le pondremos a la matriz

Darle doble clic al archivero a1, como se indico es una matriz vacía,
por ello aparecerá 0.00
A continuación, se generara una matriz de correlación.
Seguir la siguiente ruta:
Nota: es necesario aumentar la ventana de la regresión para que permita visualizar la barra de opciones

Colocar las regresoras


LOG(YD) LOG(W) I
Clic en OK

Matriz de correlación, es una matriz 3 x 3.

Copiar los valores (ctrl+c) y saldrá este mensaje colgante, seleccionar:


Pegarlos en la matriz vacía 0.00, para realizarlo clic en: edit +/- , ctlr+v
 Dirigirse a la sección de comandos, colocar.
Matrix ic= @eigen values (a1)
Explicación de comando: ic permite establecerle el nombre del fichero, (a1) es la matriz vacía que ya cuenta con los
valores de la matriz de correlación (datos que se pegaron), el resto del comando nos permite determinar lo que
buscamos conseguir, en este caso el índice de condicionalidad.
-enter-
Ahora, darle doble clic al archivo que creamos ic

Para sacar el índice de condicionalidad, es mediante la siguiente formula

Identificamos que el valor máximo es 2.495038 y el valor mínimo es 0.014332


Por lo que colocamos en la sección de comandos.
=(2.495038/0.014332) ^(1/2)
-enter-

Podrán encontrar el valor en la parte inferior izquierda


Escalar: 13.1942643938
Lo que confirma que existe multicolinealidad dado que el valor es >10
Nota: si lo desean lo pueden realizar en Eviews, o también lo pueden ejecutar en Excel.

Entonces, para poder arreglar la multicolinealidad es necesario crear la matriz de correlación con todas las variables,
Dirigirse a la ruta indicada, únicamente colocar en el mensaje colgante LOG(C01) LOG(YD) LOG(W) I
Al visualizar las variables se puede notar que las
variables altamente correlacionadas son YD & W,
por lo que se elimina aquella cuya correlación es
menor en este caso es el salario

Es necesario correr de nuevo la regresión, y se vuelven a realizar todos


los pasos para confirmar que se arregló el problema de multicolinealidad
c. Elipses
Si desean determinar la multicolinealidad, mediante el movimiento de las elipses, seguir siguiente ruta:
 saldrá la siguiente ventana emergente, seleccionar ok
 Creación de elipses

Cuando esta pierde la forma de una elipse, es signo claro de


Multicolinealidad.

5.Regresiones auxiliares regla práctica de Klein


Y= f (x) --> R2
Se ejecutan las siguientes regresiones auxiliares:
1. LS LOG(YD) C LOG(W) I
2. LS LOG(W) C LOG(YD) I
3. LS I C LOG(W) LOG(YD)
Sugiere que la multicolinealidad puede ser un problema complicado solamente si la R2 obtenida de una regresión auxiliar
es mayor que la R2 global

Heteroscedasticidad
Un supuesto importante del modelo clásico de regresión lineal (supuesto 4) es que las perturbaciones ui que aparecen en
la función de regresión poblacional son homoscedásticas; es decir, que todas tienen la misma varianza

1. Planteamiento de hipótesis
Ho: los errores son homoscedasticos
H1: los errores son heteroscedasticos

LS LOG(C01) C LOG(YD) LOG(W) I


2. Seguir la siguiente ruta (en la ventana donde se encuentra la regresión
original esto lo hago únicamente para ejemplificar lo que sucede cuando se
arregla posteriormente el modelo)

Se puede realizar todas las pruebas, pero para cuestiones del curso, el Lic desarrolla la Prueba White
Seleccionar White ok

Observar los valores que se encuentran


Obs*R-squared, la parte de la prob. Chi-square (9)
Y aplicar lo que se indicó en las hipótesis
Si, utilizamos un 95% de nivel de confianza
σ= 5% ó 0.05
p> σ muestra homoscedasticidad

Este se realizó con el modelo original, para ejemplificar


que si se hace desde el inicio, el modelo no muestra
heteroscedasticidad que es lo que se busca, sin
embargo al arreglar la multicolinealidad, regularmente
el modelo cae en heteroscedasticidad,

Ahora por cuestiones de orden realmente se debe


correr con el modelo que ya se arregló la
multicolinealidad.
LS LOG(C01) C LOG(YD) I
Siguiendo la ruta indicada, para poder encontrar el
diagnostico de heteroscedastidad, nos queda.
Lo que cofirma que existe heteroscedasticidad

p< σ presenta heteroscedasticidad.

Autocorrelación

Para identificar la autorrelación, es necesario dirigirse a la regresión arreglada, al apartado de Durbin-Watson


stat.
Mostrando que posee 0.317725, lo cual demuestra que todo número cercano a 0, presenta correlación positiva.

Regularmente para poder arreglar un problema de


autocorrelación es necesario aplicar:
1. Logaritmos (en este caso no se podría, dado que ya se
encuentra transformadas las variables a nivel logarítmico)
2. Aplicar la muestra
3. Especificarlo de otra manera.

Bueno aquí queda la explicación de la violación de los supuestos,


el lic me indico que autocorrelación lo ampliaría en la próxima
clase.
Sugiero leer los capítulos 10, 11, 12, de Gujarati

You might also like