En el cual se espera que (2 < 0 y (3, (4 > 0, por lo mencionado anteriormente acerca de las relaciones entre las variables. El objetivo principal será probar la significancia del parámetro (4.
El intervalo en el cual se tomó la muestra de las variables es del mes de Agosto de 1994 hasta Agosto de 1999, la razón por la que se toma éste periodo es que los primeros años, así como al término de la década de los 90"s, el panorama económico era muy incierto y por lo tanto se podía cometer el error de incluir observaciones que de alguna manera estuvieran "presionadas" por factores externos.
2. Análisis de la Regresión
El propósito de este análisis consiste en determinar la relación existente entre las variables tomadas a partir de la muestra con la que se cuenta. Para esto debemos especificar cual es nuestra variable a explicar en nuestro caso esta variable es M y que supuestamente depende de las variables TCR, PBI y RIN a través de una relación funcional. Entonces pasamos a especificar nuestro modelo:
LM = (0 + (1LTCR + (2LPBI + (3LRIN + (
Esta relación nos indica que el valor de la variable M depende de los valores de las variables independientes, un termino constante y un error o perturbación.
El objetivo de este análisis es estimar la media condicional de la variable dependiente dados los valores de las variables dependientes. Estimando por MCO obtenemos los siguientes resultados del Eviews:
Dependent Variable: LM | ||||||
Method: Least Squares | ||||||
Date: 11/23/01 Time: 15:56 | ||||||
Sample: 1994:01 1999:08 | ||||||
Included observations: 68 | ||||||
Variable | Coefficient | Std. Error | t-Statistic | Prob. | ||
LTCR | -1.705637 | 0.336080 | -5.075092 | 0.0000 | ||
LPBI | 0.783472 | 0.293665 | 2.667917 | 0.0097 | ||
LRIN | 0.219786 | 0.072204 | 3.043974 | 0.0034 | ||
C | 7.914847 | 1.852119 | 4.273400 | 0.0001 | ||
R-squared | 0.665286 | Mean dependent var | 4.877041 | |||
Adjusted R-squared | 0.649597 | S.D. dependent var | 0.181643 | |||
S.E. of regression | 0.107523 | Akaike info criterion | -1.565193 | |||
Sum squared resid | 0.739923 | Schwarz criterion | -1.434633 | |||
Log likelihood | 57.21655 | F-statistic | 42.40272 | |||
Durbin-Watson stat | 0.794754 | Prob(F-statistic) | 0.000000 |
De donde podemos observar los valores de los coeficientes que nos miden el impacto marginal de cada regresor sobre la variable dependiente. Manteniendo todo lo demás constante, así podemos identificar los valores para los diferentes (.
LM = 0.783472*LPBI + 0.219786*LRIN – 1.705637*LTCR + 7.914847
(0.08623) (0.005213) (0.112949)
Además los signos esperados de los parámetros son positivos tanto para el PBI como para el RIN y negativo para el TCR.
El t- estadístico nos permite contrastar la hipótesis nula de que el verdadero parámetro es igual cero, evaluando cada coeficiente de manera independiente. Entonces:
H0 : ßi = 0 (el coeficiente no es significativo, dado el nivel de confianza)
Nivel de confianza: 95%
Sin embargo como trabajamos con el Eviews y éste trabaja con la probabilidad asociada al t-calculado, tenemos que ver si la probabilidad asociada es menor a 0.05, y si es así, cabe afirmar que no existe suficiente evidencia para aceptar la hipótesis nula, dado un nivel de significancia de 0.05, entonces para nuestro caso rechazamos la hipótesis nula diciendo que los coeficientes asociados a nuestras variables son significativos.
Si analizamos el R cuadrado, para medir el grado de ajuste del modelo, ya que este indicador aumenta cuando se incrementa el número de variables explicativas, sin que esto implique que tengan un aporte importante, por esto es conveniente mejor analizar el R cuadrado ajustado, que es una medida de bondad de ajuste neutral a la introducción de variables adicionales.
Para contrastar la hipótesis nula de que todos los coeficientes son iguales a cero utilizamos el estadístico F y su probabilidad asociada, que al igual que el estadístico t, nos permite rechazar la hipótesis nula, de que los coeficientes son diferentes de cero, es decir son significativos.
3. Análisis residual
Detección de Heteroscedasticidad:
Para la detección de heteroscedasticidad en los términos de error se han escogido las pruebas de White y Goldfed – Quant.
Test de White:
White Heteroskedasticity Test: | ||||||
F-statistic | 2.081698 | Probability | 0.052001 | |||
Obs*R-squared | 14.96880 | Probability | 0.059755 | |||
Test Equation: | ||||||
Dependent Variable: RESID^2 | ||||||
Method: Least Squares | ||||||
Date: 11/23/01 Time: 16:40 | ||||||
Sample: 1994:01 1999:08 | ||||||
Included observations: 68 | ||||||
Variable | Coefficient | Std. Error | t-Statistic | Prob. | ||
C | 18.38759 | 20.84179 | 0.882246 | 0.3812 | ||
LPBI | -1.478502 | 6.054835 | -0.244185 | 0.8079 | ||
LPBI^2 | -0.686694 | 0.662723 | -1.036172 | 0.3044 | ||
LPBI*LRIN | 0.255842 | 0.306975 | 0.833431 | 0.4080 | ||
LPBI*LTCR | 1.461167 | 1.095920 | 1.333279 | 0.1876 | ||
LRIN | -0.212869 | 1.718448 | -0.123873 | 0.9018 | ||
LRIN^2 | -0.045247 | 0.041519 | -1.089811 | 0.2802 | ||
LRIN*LTCR | -0.123624 | 0.323050 | -0.382678 | 0.7033 | ||
LTCR | -6.264596 | 4.465825 | -1.402786 | 0.1659 | ||
R-squared | 0.220129 | Mean dependent var | 0.010881 | |||
Adjusted R-squared | 0.114384 | S.D. dependent var | 0.014999 | |||
S.E. of regression | 0.014115 | Akaike info criterion | -5.560437 | |||
Sum squared resid | 0.011755 | Schwarz criterion | -5.266679 | |||
Log likelihood | 198.0549 | F-statistic | 2.081698 | |||
Durbin-Watson stat | 1.871596 | Prob(F-statistic) | 0.052001 |
Se sabe que el número de observaciones multiplicado por el R-cuadrado de la regresión "auxiliar" se distribuye mediante una Chi-cuadrado con 8 grados de libertad, es decir el número de regresores (sin tomar en cuenta el término constante) de la regresión auxiliar. En este caso se tiene que:
Obs*R-cuadrado = 14,96 < 15,5 = X28 con el intervalo de confianza de 95%.
Por lo que no se puede rechazar la hipótesis nula de ausencia de heteroscedasticidad.
Test de Goldfeld – Quandt:
La metodología de este test requiere realizar dos regresiones, se escoge una cantidad p = 10 observaciones centrales y se hacen dos regresiones de las primeras (T – p)/2 observaciones y de las (T – p)/2 últimas para cada una de las variables.
Para el caso de la variable LTCR, obtenemos el siguiente cuadro correspondiente a la primera regresión:
Dependent Variable: LIMP | ||||||
Method: Least Squares | ||||||
Date: 11/23/01 Time: 17:25 | ||||||
Sample: 1 29 | ||||||
Included observations: 29 | ||||||
Variable | Coefficient | Std. Error | t-Statistic | Prob. | ||
LTCR | -5.264640 | 1.686800 | -3.121082 | 0.0043 | ||
C | 29.00907 | 7.709228 | 3.762902 | 0.0008 | ||
R-squared | 0.265129 | Mean dependent var | 4.948070 | |||
Adjusted R-squared | 0.237912 | S.D. dependent var | 0.157115 | |||
S.E. of regression | 0.137157 | Akaike info criterion | -1.068903 | |||
Sum squared resid | 0.507928 | Schwarz criterion | -0.974607 | |||
Log likelihood | 17.49909 | F-statistic | 9.741150 | |||
Durbin-Watson stat | 2.428394 | Prob(F-statistic) | 0.004261 |
De la misma forma para la segunda regresión, se tiene:
Dependent Variable: LIMP | ||||||
Method: Least Squares | ||||||
Date: 11/23/01 Time: 17:34 | ||||||
Sample: 1 29 | ||||||
Included observations: 29 | ||||||
Variable | Coefficient | Std. Error | t-Statistic | Prob. | ||
LTCR | -0.554106 | 1.097355 | -0.504947 | 0.6177 | ||
C | 7.373702 | 5.091590 | 1.448212 | 0.1591 | ||
R-squared | 0.009355 | Mean dependent var | 4.802771 | |||
Adjusted R-squared | -0.027336 | S.D. dependent var | 0.173860 | |||
S.E. of regression | 0.176220 | Akaike info criterion | -0.567693 | |||
Sum squared resid | 0.838446 | Schwarz criterion | -0.473397 | |||
Log likelihood | 10.23155 | F-statistic | 0.254972 | |||
Durbin-Watson stat | 2.283699 | Prob(F-statistic) | 0.617693 |
Según la metodología de Goldfeld – Quandt debemos hallar la razón entre la suma residual de las dos regresiones, la cual se distribuye mediante una F con un número de grados de libertad en el numerador y denominador iguales a: (T – p)/2 – k , donde: k es el número de parámetros que deben ser estimados incluyendo el término constante, en nuestro caso particular tenemos k = 2. Tenemos entonces que:
( = (SRC2)27 / (SRC1)27 = 1.65 < F(27, 27) ( < 1.84 ; 1.96>
Por lo que no se podría afirmar la existencia de heteroscedasticidad
Para el caso de la variable LPBI, obtenemos el siguiente cuadro correspondiente a la primera regresión.
Dependent Variable: LIMP | ||||||
Method: Least Squares | ||||||
Date: 11/23/01 Time: 11:44 | ||||||
Sample: 1 29 | ||||||
Included observations: 29 | ||||||
Variable | Coefficient | Std. Error | t-Statistic | Prob. | ||
LPBI | 2.845952 | 0.356953 | 7.972902 | 0.0000 | ||
C | -8.434265 | 1.657890 | -5.087350 | 0.0000 | ||
R-squared | 0.701879 | Mean dependent var | 4.782884 | |||
Adjusted R-squared | 0.690837 | S.D. dependent var | 0.201813 | |||
S.E. of regression | 0.112213 | Akaike info criterion | -1.470365 | |||
Sum squared resid | 0.339977 | Schwarz criterion | -1.376069 | |||
Log likelihood | 23.32029 | F-statistic | 63.56717 | |||
Durbin-Watson stat | 2.150943 | Prob(F-statistic) | 0.000000 |
Y a partir de la segunda regresión se obtiene:
Dependent Variable: LIMP | ||||||
Method: Least Squares | ||||||
Date: 11/23/01 Time: 12:07 | ||||||
Sample: 1 29 | ||||||
Included observations: 29 | ||||||
Variable | Coefficient | Std. Error | t-Statistic | Prob. | ||
LPBI | -0.344594 | 0.711435 | -0.484364 | 0.6320 | ||
C | 6.619512 | 3.406144 | 1.943404 | 0.0625 | ||
R-squared | 0.008614 | Mean dependent var | 4.969735 | |||
Adjusted R-squared | -0.028104 | S.D. dependent var | 0.122078 | |||
S.E. of regression | 0.123782 | Akaike info criterion | -1.274119 | |||
Sum squared resid | 0.413693 | Schwarz criterion | -1.179823 | |||
Log likelihood | 20.47473 | F-statistic | 0.234609 | |||
Durbin-Watson stat | 1.821562 | Prob(F-statistic) | 0.632033 |
Con lo que obtenemos la relación:
( = (SCR2)/(SCR1) = 1.22 < F(27, 27) (
Por lo que no se puede afirmar la existencia de heteroscedasticidad.
Finalmente para el caso de la variable LRIN, obtenemos el siguiente cuadro correspondiente a la primera regresión:
Dependent Variable: LIMP | ||||||
Method: Least Squares | ||||||
Date: 11/23/01 Time: 12:25 | ||||||
Sample: 1 29 | ||||||
Included observations: 29 | ||||||
Variable | Coefficient | Std. Error | t-Statistic | Prob. | ||
LRIN | 0.667286 | 0.087163 | 7.655640 | 0.0000 | ||
C | 1.602577 | 0.416333 | 3.849265 | 0.0007 | ||
R-squared | 0.684612 | Mean dependent var | 4.785601 | |||
Adjusted R-squared | 0.672931 | S.D. dependent var | 0.202959 | |||
S.E. of regression | 0.116072 | Akaike info criterion | -1.402734 | |||
Sum squared resid | 0.363765 | Schwarz criterion | -1.308438 | |||
Log likelihood | 22.33964 | F-statistic | 58.60883 | |||
Durbin-Watson stat | 1.378904 | Prob(F-statistic) | 0.000000 |
Y a partir de la segunda regresión, se obtiene:
Dependent Variable: LIMP | ||||||
Method: Least Squares | ||||||
Date: 11/23/01 Time: 12:28 | ||||||
Sample: 1 29 | ||||||
Included observations: 29 | ||||||
Variable | Coefficient | Std. Error | t-Statistic | Prob. | ||
LRIN | 1.792703 | 0.317472 | 5.646808 | 0.0000 | ||
C | -4.664545 | 1.702072 | -2.740510 | 0.0107 | ||
R-squared | 0.541490 | Mean dependent var | 4.946202 | |||
Adjusted R-squared | 0.524509 | S.D. dependent var | 0.139364 | |||
S.E. of regression | 0.096099 | Akaike info criterion | -1.780394 | |||
Sum squared resid | 0.249348 | Schwarz criterion | -1.686098 | |||
Log likelihood | 27.81572 | F-statistic | 31.88644 | |||
Durbin-Watson stat | 2.319174 | Prob(F-statistic) | 0.000005 |
Con lo que obtenemos la relación:
( = (SCR2)/(SCR1) = 0.69 < F(27, 27) (
Por lo que no se puede afirmar la existencia de heteroscedasticidad.
Análisis de autocorrelación:
Para analizar al existencia de autocorrelación, podemos verificarlo utilizando los siguientes test:
Test de Durbin Watson
Test de Breusch Godfrey
Test Box – Pierce Q
Este análisis es importante ya que puede estar siendo causa de la existencia de:
– Ciclos y tendencias: debido a la utilización de variables económicas que tienen una tendencia creciente. Si el conjunto de variables explicativas del modelo no explican adecuadamente dicho comportamiento, entonces el termino de error incorporara dicha tendencia, conduciendo a la existencia de autocorrelación positiva.
– Variable omitidas: si el verdadero modelo que explica el comportamiento de la variable endógena se le ha omitido una variable explicativa, entonces el termino de error incluirá esta variable y si esta variable presenta autocorrelación, entonces el termino de error también estará autocorrelacionado.
– Relaciones no lineales: si por ejemplo una de las variables no es lineal, en nuestro caso este no seria el problema ya que se esta trabajando con los logaritmos de las variables.
Pasamos a analizar la existencia o no de autocorrelación, empecemos analizando con el test de Durbin Watson:
De la estimación MCO, tenemos:
Durbin Watson
Esto nos indica que existe AUTOCORRELACION POSITIVA DE ORDEN 1, ya que el resultado de Durbin Watson se aproxima a 0. Aunque podría darse el caso de que exista autocorrelación de mayor orden. En este caso no podemos utilizar es test de Durbin Watson, ya que solo nos permite identificar autocorrelación de orden 1.
Test de Breuchs y Godfrey:
Ya que el test de Durbin Watson no nos permite saber si existe o no autocorrelación de orden mayor a 1, este test nos permite identificar la presencia de autocorrelación de cualquier orden. Entonces veamos si existe autocorrelación de orden 2.
La hipótesis nula es que no existe autocorrelación de orden 2.
Breusch-Godfrey Serial Correlation LM Test: | ||||||
F-statistic | 21.33493 | Probability | 0.000000 | |||
Obs*R-squared | 27.72098 | Probability | 0.000001 | |||
Test Equation: | ||||||
Dependent Variable: RESID | ||||||
Method: Least Squares | ||||||
Date: 11/23/01 Time: 15:58 | ||||||
Variable | Coefficient | Std. Error | t-Statistic | Prob. | ||
LPBI | 0.087790 | 0.230027 | 0.381652 | 0.7040 | ||
LRIN | -0.013213 | 0.056496 | -0.233880 | 0.8158 | ||
LTCR | 0.088404 | 0.263320 | 0.335730 | 0.7382 | ||
C | -0.754693 | 1.453412 | -0.519256 | 0.6054 | ||
RESID(-1) | 0.442022 | 0.123463 | 3.580185 | 0.0007 | ||
RESID(-2) | 0.272024 | 0.125943 | 2.159899 | 0.0347 | ||
R-squared | 0.407661 | Mean dependent var | -5.09E-15 | |||
Adjusted R-squared | 0.359892 | S.D. dependent var | 0.105089 | |||
S.E. of regression | 0.084078 | Akaike info criterion | -2.030046 | |||
Sum squared resid | 0.438285 | Schwarz criterion | -1.834207 | |||
Log likelihood | 75.02157 | F-statistic | 8.533974 | |||
Durbin-Watson stat | 1.989647 | Prob(F-statistic) | 0.000003 |
De los resultados podemos rechazar la hipótesis nula, es decir, si existe autocorrelación de orden 2, con un 99% de confianza.
Test Box – Pierce Q:
Este test permite determinar la existencia de autocorrelación hasta un orden establecido.
La hipótesis nula es que no existe autocorrelación hasta el orden 16
Al analizar el estadístico Q tenemos que:
Se rechaza la hipótesis nula de que no existe autocorrelación hasta el orden 16, es decir que puede existir autocorrelación de orden 1, 2, 3…,15, 16.
Para saber cual es el orden de autocorrelación analizamos el comportamiento de los coeficientes de autocorrelación parcial . En este caso el orden de autocorrelación es el primer coeficiente de autocorrelación parcial ya que se encuentra fuera de las bandas de confianza. Entonces existe autocorrelación de primer orden.
Conclusiones:
En el presente trabajo se ha comprobado de la existencia de heteroscedasticidad y de autocorrelación, a través de los diferentes tipos de pruebas que existen para realizar estos contrastes.
La presencia de heteroscedasticidad indica que en el modelo la varianza del término de error varia en cada período de tiempo, pero al no encontrar presencia de heteroscedasticidad en nuestro modelo podemos afirmar que todas las perturbaciones del termino de error(() tienen la misma varianza ((2) de forma muy aproximada.
Al haber realizado las pruebas correspondientes se encontraron que no había presencia de heteroscedasticidad lo que indica que en el modelo planteado los estimadores deben tener las mismas propiedades de eficiencia, es decir que siguen siendo insesgado y consistente para los estimadores de MCO y aun tienen la propiedad de mínima varianza, pero cabe resaltar que en presencia de heteroscedasticidad las varianzas de lo estimadores MCO no se obtienen con las formulas de MCO usuales, si se persiste en hacer este estimador se llevara a cabo a través de las pruebas t y F, que pueden conducir a grandes desatinos y por ende a conclusiones erróneas.
La presencia de autocorrelación de primer orden se aduce a al lentitud de las series de tiempo económicas, recuérdese que los datos son mensuales y por ende, es de esperarse que las variaciones en los índices de las variables entre cada período sean pequeñas.
Autor:
Alí K. Galíndez Figueroa
Página anterior | Volver al principio del trabajo | Página siguiente |