name: xaringan-title class: inverse, left, bottom background-image: url(pictures/picuniform.jpg) background-size: cover # **Econometría II** ---- ## **<br/> ARIMA** ### Carlos A. Yanes Guerra ### 2024-I --- class: inverse # Preguntas de las sesiones anteriores? --- layout: true # Estacionariedad --- -- <cy-blockquote> Una serie de tiempo `\(\{y_t\}\)` es **estacionaria** si para cualquier `\(\rho\)`, la distribución de `\((y_t,\dots,y_{t+\rho})\)` no depende de `\(t\)`. </cy-blockquote> -- Por ende, una serie es .hi[estacionaria] si: -- * Aproximadamente tiene comportamiento horizontal * Es **Varianza** Constante * No posee patrones predecibles a largo plazo --- -- <img src="Clase04_files/figure-html/unnamed-chunk-1-1.svg" width="70%" style="display: block; margin: auto;" /> --- -- <img src="Clase04_files/figure-html/unnamed-chunk-2-1.svg" width="70%" style="display: block; margin: auto;" /> --- -- `\(Y_{t}\)` es autorregresivo de orden 1 si: -- `$$Y_{t}= \alpha_{0}+ \alpha_{1}Y_{t-1} + \epsilon_{t}, \; RB \; \epsilon_{t} \sim (0, \sigma^{2})$$` -- Con `\(\left | \alpha_{1} \right | < 1\)` -- Un modelo .hi[autorregresivo] mas general será constituido: -- `$$Y_{t}=\alpha_{0}+\alpha_{i}\sum_{i=1}^{\rho} Y_{t-i}+ \epsilon_{t}$$` -- Tome en consideración la detección de la media del proceso: -- `$$\mu_{y}= \frac{\alpha_{0}}{\left ( 1- \alpha_{1}-\alpha_{2}\right)}$$` -- Note que `\(|\alpha_1+\alpha_2|<1\)`. Esto es muy importante tener en cuenta. --- -- ### Polinomio característico -- `$$AR (\rho): \quad y_t=\alpha_0+\alpha_1y_{t-1}+\alpha_2y_{t-2}+\cdots+\alpha_\rho y_{t-\rho}+e_t$$` -- `$$y_t-\alpha_1y_{t-1}-\alpha_2y_{t-2}-\cdots-\alpha_\rho y_{t-\rho}=\alpha_0+e_t$$` -- `$$y_t-\alpha_1Ly_{t}-\alpha_2 L^2y_{t}-\alpha_\rho L^{\rho}y_{t}=\alpha_0+e_t$$` -- `$$(1-\alpha_1L-\alpha_2 L^2-\alpha_\rho L^{\rho})y_{t}=\alpha_0+e_t$$` -- Por consiguiente podemos entonces tener: -- `$$A(L)y_t=\alpha_0+e_t$$` --- -- **Polinomio característico forma 1**: -- `$$m^p-\alpha_1m^{p-1}-\alpha_2m^{p-2}-\cdots-\alpha_{p-2}m^{2}-\alpha_{p-1}m-\alpha_p=0$$` -- Bajo esa condición .hi[todas las raices] **p** deben caer dentro del circulo unitario (ser menores a 1 en valor absoluto). -- `$$-\alpha_pz^{p}-\alpha_{p-1}z^{p-1}-\alpha_{p-2}z^{p-2}-\cdots-\alpha_{2}z^2-\alpha_1z-1=0$$` -- En este enfoque de **especificación** (Forma 2), las raíces deben caer por fuera del circulo unitario --- -- Constituir la detección radica en: (Tome por ejemplo) -- `$$Y_{t}= \alpha_{0}+0.25Y_{t-1}+0.125Y_{t-2}+\epsilon_{t}$$` -- Que despejando y desarrollando queda como: -- `$$Y_{t}-0.25Y_{t-1}-0.125Y_{t-2}=\alpha_{0}+\epsilon_{t}$$` -- Solo debe aplicar los operadores rezagos queda: -- `$$Y_{t}-0.25L^{1}-0.125L^{2}=\alpha_{0}+\epsilon_{t}$$` -- Como resultado las raíces del polinomio quedan: -- `$$Z_{1}=2 \quad Z_{2}=-4$$` -- **Ambas** raíces quedan por fuera del circulo unitario (lo teórico), por ende el proceso es estacionario. En algunas partes hablan de la inversa del circulo unitario --- -- Un modelo AR(1), es aún mas facil de decir si es estacionario o no: -- `$$Y_{t}= \alpha_{0}+0.33Y_{t-1}+\epsilon_{t}$$` -- Se resuelve muy sencillo de la forma: -- `$$Y_{t}-0.33Y_{t-1}= \alpha_{0}+\epsilon_{t}$$` -- Factorizando, luego simplificando la ecuación y únicamente nos quedamos con la ecuación característica (Remplazando `\((Y_{t}= Z_{t})\)` vamos a tener: `$$Z_{t} -0.33Z_{t-1} = 0\; ;\; (1-0.33Z_t)\rightarrow \frac{1}{0.33}=Z_t$$`. -- La raíz de un AR(1) por consiguiente es `\(z=\frac{1}{\alpha}\)` y siempre y cuando `\(|\alpha|<1\)` el proceso carecera de **tendencia** .hi[estocástica] --- -- ## Problema con raíz unitaria --
Una caminata aleatoria es un ejemplo de esto, es una especie de AR `\((\rho)=1\)` o con `\(\alpha_1=1\)`. --
Si el .hi-purple[regresor] `\(\alpha_1\)` tiene raíz unitaria, la serie de tiempo podrá tener distribución muy distinta a la **normal**. Incluso aún teniendo muestras grandes. --
Si dos (2) series estan correlacionadas y ambas poseen .hi[raíz] unitaria entonces tendremos el fenómeno de regresión .hi[espuria]. --
Las series que poseen .hi[raíz] unitaria podran estar sesgadas a cero(0). --
Los correlogramas y la prueba de .hi[raíz] **unitaria** fue propuesta por .b[Dickey-Fuller] en 1970. --- -- ### Test de Dickey-Fuller -- Sea una serie: -- `$$y_t=\rho y_{t-1}+ e_t$$` -- `$$y_t - y_{t-1}= \rho y_{t-1}- y_{t-1}+ e_t$$` -- Lo que viene a ser: -- `$$\Delta y_t=(\rho-1)y_{t-1}+ e_t$$` -- `$$\Delta y_t=ay_{t-1}+ e_t$$` -- Si `\(\rho=1\)`, entonces la serie sigue una .b[caminata aleatoria] --- -- ### Test de Dickey-Fuller -- Planteamos la .hi[hipótesis] como: -- `$$\begin{aligned} H_0 &: a=0\\ H_a &: a<0 \;, \text{serie estacionaria} \end{aligned}$$` --
La forma o manera de hacerlo es: -- * Sin constante. *P.e*: `\(y_t=ay_{t-1}+e_t\)` * Con constante: `\(y_t=c+ay_{t-1}+e_t\)` * Con constante y tendencia: `\(y_t=c+\beta t_t+ay_{t-1}+e_t\)` -- Podemos incluso asociar el estadístico del **Dickey-Fuller** que debe ser lo suficientemente grande para así .hi[rechazar] la hipótesis de raíz unitaria. --- -- ### Resultado del test ``` #> #> Augmented Dickey-Fuller Test #> #> data: ar2_series #> Dickey-Fuller = -1.9077, Lag order = 4, p-value = 0.6149 #> alternative hypothesis: stationary ``` -- ### Para uno que si es estacionario -- ``` #> #> Augmented Dickey-Fuller Test #> #> data: ar2_series #> Dickey-Fuller = -3.498, Lag order = 4, p-value = 0.04567 #> alternative hypothesis: stationary ``` --- -- ### Test de Dickey-Fuller aumentado -- En algunas ocasiones puede que `\(e_t\)` el error del modelo no sea .hi[RUIDO BLANCO]. Para esos casos, lo mejor es implementar el Dickey Fuller aumentado: -- `$$\Delta y_t=(c+)ay_{t-1}(\beta_0t)+\beta_1\Delta y_{t-1}+\cdots+\beta_k\Delta y_{t-k}+e_t$$` -- + La selección óptima de los rezagos, se hace a partir de criterios como el de Akaike, Bayes, entre otros. -- + La hipótesis no cambia ni el uso de sus tablas tampoco. --- -- ## Corrección de la NO estacionariedad -- La .hi[diferenciación] permite .hi-orange[estabilizar] la media. Podemos corregir y tener: -- `$$\Delta y_t=y_t-y_{t-1}$$` -- Mas generalizado y en caso tal aun no sea la serie .hi[estacionaria]: -- `$$\begin{aligned} \Delta Y_t^2=&\Delta y_t-\Delta y_{t-1}\\ =&(y_t-y_{t-1})-(y_{t-1}-y_{t-2})\\ =&y_t-2y_{t-1}+y_{t-2} \end{aligned}$$` -- Su uso, solo obedece a estructuras bastante dependientes del tiempo y con demasiada variabilidad. --- layout: false class: inverse, middle, center # Autocorrelación y autocovarianzas --- layout: true # Autocorrelación --- -- <ry-blockquote> La .hi[autocovarianza] `\(\gamma_{s}\)` de una serie `\(Y_{t}\)` y cualquiera de sus rezagos `\(Y_{t-s}\)`, es igual al planteamiento de la formula de la covarianza entre dos variables. Para la autocovarianza del rezago de orden (0), este resulta ser la misma varianza. </ry-blockquote> -- `$$E \left[ \left ( Y_{t} - E(Y_{t}) \right) \left( Y_{t-s} - E(Y_{t-s}) \right) \right] = \gamma_{s}$$` -- `$$E \left[ \left ( Y_{t} - E(Y_{t}) \right) \left( Y_{t} - E(Y_{t}) \right) \right] = \gamma_{0}$$` --- -- <ry-blockquote> Las .hi[**autocovarianzas**] dependen sin lugar a duda de las medidas de las series de tiempo, por tanto, es recomendable normalizar el uso de las varianzas que brinda el concepto de correlación, indice que va desde -1 a 1. </ry-blockquote> -- `$$\tau = \frac{\gamma_{s}}{\gamma_{0}} \; \text{o mejor} \; \rho=\frac{cov(Y_{t},Y_{t-s})}{\sqrt{ Var(Y_{t})Var(Y_{t-s})}}= \frac{cov(Y_{t},Y_{t-s})}{VarY_{t}}$$` -- .att[Por ejemplo]: para un proceso AR(1) tendríamos una (ACF): -- `$$\rho_s=\frac{cov(Y_{t},Y_{t-s})}{VarY_{t}}=\frac{\phi_1^s \gamma_0}{\gamma_0}=\phi_1^s$$` --- -- <img src="Clase04_files/figure-html/unnamed-chunk-5-1.svg" width="70%" style="display: block; margin: auto;" /> --- -- <img src="Clase04_files/figure-html/unnamed-chunk-6-1.svg" width="70%" style="display: block; margin: auto;" /> --- -- <img src="Clase04_files/figure-html/unnamed-chunk-7-1.svg" width="70%" style="display: block; margin: auto;" /> --- -- <img src="Clase04_files/figure-html/unnamed-chunk-8-1.svg" width="70%" style="display: block; margin: auto;" /> --- -- .attn[Pregunta]: Sea el siguiente proceso: -- `$$y_t=a+\phi_1y_{t-1}+\phi_2y_{t-2}+e_t$$` *Deduzca la función de autocorrelación* -- Si contamos con estacionariedad: -- -- .pad-left[ `\(\rho_{1}=\frac{\gamma_1}{\gamma_0}=\frac{\phi_1\gamma_0+\phi_2\gamma_1}{\gamma_0}=\phi_1+\phi_2\rho_1\Rightarrow\frac{\phi_1}{1-\phi_2}\)` ] -- .pad-left[ `\(\rho_{2}=\frac{\gamma_2}{\gamma_0}=\frac{\phi_1\gamma_1+\phi_2\gamma_0}{\gamma_0}=\phi_1\rho_1+\phi_2\)` ] -- .pad-left[ `\(\text{y en general,}\;\rho_s=\phi_1\rho_{s-1}+\phi_2\rho_{s-2}\rightarrow \forall s>0\)` ] -- .pad-left[ Se conoce como las ecuaciones de .hi-green[Yule-Walker] .pink[✔] ] --- -- ### Modelo Arima Podemos establecer que: -- `$$\underbrace{(1-{\color{#e64173}{\phi_1L}})}_{\color{#e64173}{\text{AR(1)}}} \underbrace{(1-L)y_t}_{\text{Primera diferencia}}= \underbrace{C+(1+\color{#6A5ACD}{\theta_1 L}) \epsilon_t}_{\color{#6A5ACD}{\text{MA(1)}}}$$` -- `\(AR(\rho):\)` orden del Autorregresivo -- `\(MA(\theta):\)` orden de la media movil. -- La diferencia depende del nivel de .hi[estacionariedad] que requiera la **serie**, p.e: arima(1,1,1) --- layout:false # Bibliografía
Chatfield, C. (2000). *Time-series forecasting*. CRC press.
Hyndman, R.J., & Athanasopoulos, G. (2021). *Forecasting: principles and practice*, 3rd edition, OTexts: Melbourne, Australia.
Shumway, R., & Stoffer, D. (2019). *Time series: a data analysis approach using R*. CRC Press.
Campo, J. Notas de clase (MIMEO) --- name: adios class: middle .pull-left[ # **¡Gracias!** <br/> ## Estacionariedad ### Seguimos aprendiendo ] .pull-right[ .right[ <img style="border-radius: 50%;" src="https://avatars.githubusercontent.com/u/39503983?v=4" width="150px" />
[Syllabus/ Curso](https://pomelo.uninorte.edu.co/pls/prod/bwckctlg.p_disp_course_detail?cat_term_in=202210&subj_code_in=ECO&crse_numb_in=0010)<br/>
[@keynes37](https://twitter.com/keynes37)<br/>
[ cayanes@uninorte.edu.co](mailto:cayanes@uninorte.edu.co) ] ]