Professional Documents
Culture Documents
Paso 1. Como crear un fichero o base de datos en Eviews, para levantamiento de modelos.
1.1. Abrir Eviews
1.2. seleccionar el botón “I will register later” (si fuese el caso, en que saliera
el mensaje colgante)
1.3. si desean utilizar las bases de datos que se encuentran en los ficheros, o
cualquier archivo Excel. Utilizar la siguiente ruta:
1.4. Esto permitirá exportar los datos que se quieran utilizar como base, para levantar el modelo,
ejemplo: fichero Gujarati
1.5. Otra de las formas, para poder subir una base de datos en Eviews, que identificar las variables y datos
1.6. Saldrá un menú colgante donde podrán determinar el periodo que necesitan, pueden ponerlo anual,
semestral, trimestral, diario, entre otros.
Si por ejemplo fuese anual, colocar
start date: 1992
end date: 2017
Están determinando que su fichero sea creado de 1992-2017 con una
lectura anual
La base de datos que se utilizó en clases, es la tabla 10.7, los datos los pueden corroborar en Gujarati página 335
Base de datos que utiliza un periodo de 1947-2000
Por lo tanto colocar:
Start date: 1947
End date: 2000
1.7. Esto permitirá crear la base para incluir los datos deseados.
Consumo Y C01
Ingreso X1 YD
Salario X2 W
Tasa de interés X3 I
Estimadores
1. Una R2 elevada pero pocas razones t significativas. Como ya mencionamos, es un síntoma “clásico” de
multicolinealidad. Si R2 es alta, es decir, está por encima de 0.8, la prueba F, en la mayoría de los casos, rechazará
la hipótesis de que los coeficientes parciales de pendiente son simultáneamente iguales a cero, pero las pruebas
t individuales mostrarán que ningún coeficiente parcial de pendiente, o muy pocos, son estadísticamente
diferentes de cero.
Aunque este diagnóstico es razonable, su desventaja es que “es demasiado fuerte, en el sentido de que la
multicolinealidad se considera dañina únicamente cuando no se puede separar la totalidad de las influencias de
las variables explicativas sobre Y. (Gujarati Damodar N. , 2010)
2. Altas correlaciones entre parejas de regresoras. Otra regla práctica recomendable consiste en observar el
coeficiente de correlación de orden cero o entre dos regresoras. Si éste es alto, digamos, superior a 0.8, la
multicolinealidad es un problema grave. La desventaja con este criterio es que, aunque las altas correlaciones de
orden cero pueden sugerir la presencia de colinealidad, no es necesario que dichas correlaciones sean altas para
tener colinealidad en un determinado caso específico. En términos un poco técnicos: las correlaciones de orden
cero elevadas son una condición suficiente pero no necesaria para la existencia de multicolinealidad, debido a que
puede existir a pesar de que las correlaciones de orden cero o correlaciones simples sean comparativamente bajas
(es decir, inferiores a 0.50). (Gujarati Damodar N. , 2010)
3. Otros Métodos:
a. Factor de Inflación de la varianza (FIV)
b. Índice de Condicionalidad (IC)
c. Elipses
4. Examen de las correlaciones parciales. Debido al problema recién descrito, que se basa en correlaciones de orden
cero, Farrar y Glauber sugieren que deben observarse, en lugar de ellas, los coeficientes de correlación parcial
5. Regresiones auxiliares. Como la multicolinealidad surge porque una o más de las regresoras son combinaciones
lineales exactas o aproximadas de las demás regresoras, una forma de determinar cuál variable X está relacionada
con las demás variables X es efectuar la regresión de cada Xi sobre las variables X restantes y calcular la R 2
correspondiente, que se designa R2 i ; cada una de estas regresiones se denomina regresión auxiliar, auxiliar a la
regresión principal de Y sobre las X.
En lugar de probar formalmente todos los valores R2 auxiliares, se puede adoptar la regla práctica de Klein, que
sugiere que la multicolinealidad puede ser un problema complicado solamente si la R2 obtenida de una regresión
auxiliar es mayor que la R2 global
3. Otros métodos
a. Facto de inflación de la varianza
Después de haber corrido la regresión, seguir la siguiente ruta.
1.2.1.1. Para identificar la multicolinealidad se debe observar la
última columna, la cual nos indicara que toda aquella variable:
>10 sufre de una multicolidealidad alta
>30 es un problema serio de multicolinealidad
Lo que permite determinar que dos de las variables sufren de multicolinealidad (YD, W) dado que estas son >30
b. Índice de condicionalidad
Si es >10 establece que hay multicolinealdad
1. Es necesario crear una matriz vacía.
Escribir en la sección de comandos: Sym (3) a1
Explicación de comando: Sym permite crear la matriz, (3) establece las regresoras que posee el modelo (en este caso
únicamente contamos con 3 -YD, W, I-), a1 será el nombre que le pondremos a la matriz
Darle doble clic al archivero a1, como se indico es una matriz vacía,
por ello aparecerá 0.00
A continuación, se generara una matriz de correlación.
Seguir la siguiente ruta:
Nota: es necesario aumentar la ventana de la regresión para que permita visualizar la barra de opciones
Entonces, para poder arreglar la multicolinealidad es necesario crear la matriz de correlación con todas las variables,
Dirigirse a la ruta indicada, únicamente colocar en el mensaje colgante LOG(C01) LOG(YD) LOG(W) I
Al visualizar las variables se puede notar que las
variables altamente correlacionadas son YD & W,
por lo que se elimina aquella cuya correlación es
menor en este caso es el salario
Heteroscedasticidad
Un supuesto importante del modelo clásico de regresión lineal (supuesto 4) es que las perturbaciones ui que aparecen en
la función de regresión poblacional son homoscedásticas; es decir, que todas tienen la misma varianza
1. Planteamiento de hipótesis
Ho: los errores son homoscedasticos
H1: los errores son heteroscedasticos
Se puede realizar todas las pruebas, pero para cuestiones del curso, el Lic desarrolla la Prueba White
Seleccionar White ok
Autocorrelación