「ARモデル」の版間の差分
ナビゲーションに移動
検索に移動
Sakasegawa (トーク | 投稿記録) |
Albeit-Kun (トーク | 投稿記録) |
||
3行目: | 3行目: | ||
<math>x_{t} \,</math> を <math>\mbox{E}(x_{t})=0 \,</math> の弱定常過程とし,<math>\varepsilon_{t} \,</math> を <math>\mbox{E}(\varepsilon_{t})=0 \,</math>,<math>\mbox{V}(\varepsilon_{t})=\sigma^{2} \,</math>,<math>\mbox{E}(\varepsilon_{t}\varepsilon_{s})=0 \,</math> <math>(t \ne s) \,</math>のホワイトノイズとする.<math>x_{t} \,</math> が <math>x_{t}=\phi_{1}x_{t-1}+\cdots+\phi_{p}x_{t-p}+\varepsilon_{t} \,</math>と表現できるとき, このモデルを次数 <math>p \,</math> の自己回帰(AR)モデルと呼び,<math>\mbox{AR}(p) \,</math> モデルと略記する.AR という用語は <math>x_{t} \,</math> を自身の過去の値に回帰することに由来し,AR モデルは理解しやすい構造をもっている. | <math>x_{t} \,</math> を <math>\mbox{E}(x_{t})=0 \,</math> の弱定常過程とし,<math>\varepsilon_{t} \,</math> を <math>\mbox{E}(\varepsilon_{t})=0 \,</math>,<math>\mbox{V}(\varepsilon_{t})=\sigma^{2} \,</math>,<math>\mbox{E}(\varepsilon_{t}\varepsilon_{s})=0 \,</math> <math>(t \ne s) \,</math>のホワイトノイズとする.<math>x_{t} \,</math> が <math>x_{t}=\phi_{1}x_{t-1}+\cdots+\phi_{p}x_{t-p}+\varepsilon_{t} \,</math>と表現できるとき, このモデルを次数 <math>p \,</math> の自己回帰(AR)モデルと呼び,<math>\mbox{AR}(p) \,</math> モデルと略記する.AR という用語は <math>x_{t} \,</math> を自身の過去の値に回帰することに由来し,AR モデルは理解しやすい構造をもっている. | ||
+ | |||
+ | [[category:予測|えいあーるもでる]] |
2008年11月5日 (水) 16:27時点における最新版
【えいあーるもでる (AR (autoregressive) model)】
を の弱定常過程とし, を ,, のホワイトノイズとする. が と表現できるとき, このモデルを次数 の自己回帰(AR)モデルと呼び, モデルと略記する.AR という用語は を自身の過去の値に回帰することに由来し,AR モデルは理解しやすい構造をもっている.