《モンテカルロ法》

提供: ORWiki
2007年7月8日 (日) 05:01時点における122.26.167.76 (トーク)による版 (新しいページ: ''''【もんてかるろほう (Monte Carlo method) 】'''  システムの特性値などを推定するために, 適当なモデルと乱数を使って実験し, 大数...')
(差分) ← 古い版 | 最新版 (差分) | 新しい版 → (差分)
ナビゲーションに移動 検索に移動

【もんてかるろほう (Monte Carlo method) 】

 システムの特性値などを推定するために, 適当なモデルと乱数を使って実験し, 大数の法則や中心極限定理などを利用して推測を行う方法のこと. システムに確率的な変動が内在する場合だけでなく, 確定的な問題を解くためにも使われる.

 モンテカルロ法の原理を簡単な例で示そう. 推定したい特性値を$\theta$とし, これは既知の分布関数$F(y)$を持つ確率変数$Y$の関数$g(Y)$の平均値に等しいものとすれば,

\theta = E[g(Y)]=\int_{-\infty}^\infty g(y){\mbox{\rm d}}F(y) = \int_0^1 h(u){\mbox{\rm d}}u,

と書ける. ただし, $h(u)=g(F^{-1}(u))$である. そこで, 区間[0,1]上の一様乱数$U_1, U_2, \cdots, U_N$を発生し, 算術平均

A_1(N) = \sum_{i=1}^N h(U_i)/N

を$\theta$の推定値とすることが考えられる. $A_1(N)$は$\theta$の不偏推定量であり, 分散は

V(A_1(N)) = \frac{\sigma^2}N, \;\;\;\;\; \sigma^2 = \int_0^1 h^2(x) {\mbox{\rm d}}x-\theta^2

となる. したがって, 推定量$A_1(N)$に含まれる誤差の標準偏差は$\sigma/\sqrt N $であり, 精度を十進で1桁上げるためには, サンプル数$N$を10倍に増やさなければならない. このように, モンテカルロ法の収束は遅いので, これを改善するための方法が種々提案されており, 分散減少法と総称されている. ただし, これらは$1/\sqrt N$というオーダーを改善するものではなく, 比例係数を小さくするための工夫である.

重点サンプリング

 積分区間から一様にサンプルをとるのではなく, 重要と考えられる部分($h(x)$の絶対値が大きい部分)により多くの重みをおく密度関数$w(x)$に従う乱数$X_1,\cdots,$\quad $X_N$を発生し,

A_2(N) = \frac 1 N \sum_{i=1}^N \frac{h(X_i)}{w(X_i)}

で$\theta$を推定する. $w(x)$が$\left| h(x) \right|$に比例するように選べれば分散は最小となるので, なるべくそれに近くなるように工夫する.

制御変量法

 $\theta$に対するひとつの不偏推定量を$Y$とする. $Y$と相関があって平均値$\zeta$が既知の確率変数$Z$のことを, $Y$の制御変量という. $\alpha$を定数として

Y_\alpha = Y-\alpha(Z-\zeta)

と定義すれば, $Y_\alpha$も$\theta$の不偏推定量となり, その分散は$\alpha^* = {\mbox{\rm Cov}}(Y, Z)/V(Z)$のとき最小となり, 最小値は

V(Y_{\alpha^*})=(1-\rho^2)V(Y)

である. ここで$\rho$は$Y$と$Z$の相関係数であるから, $Y$と相関の強い制御変量を選ぶほど効果的である.

 定積分の例では, $h(u)$に近い関数$h_0(u)$で, その積分の値$\zeta$が正確に計算できるものを選び,

Y_\alpha = h(u)-\alpha(h_0(u)-\zeta)

に対して単純な一様サンプリングを適用する.

負相関変量法

 $\theta$の不偏推定量$Y$と平均値が同じで負の相関を持つ変量$Z$を利用して, $W=(Y+Z)/2$を$\theta$の推定量とする. この分散は, $Y$に対して2回独立にサンプルをとって平均する場合の分散より小さくなる. 定積分の例では, もし$h(u)$が単調な関数ならば, $Y=h(U),\;\;\;Z=h(1-U)$とするとよい.

共通乱数法

 二つの特性値$\theta,\phi$をそれぞれ確率変数$X,Y$に関するモンテカルロ実験によって推定し, 比較したいものとし, $\theta=E[X], \phi=E[Y]$とする.

V(X-Y)=V(X)+V(Y)-2{\mbox{\rm Cov}}(X,Y)

であるから, ${\mbox{\rm Cov}}(X,Y)$が大きいほど推定の精度が良くなる. $X$と$Y$の分布関数をそれぞれ$F,G$とし, $X$と$Y$を逆関数法で作るものとする. このとき, $X$と$Y$用に別々の一様乱数列を使う代りに, ひとつの乱数列$\{U\}$を使って,

\noindent$X=F^{-1}(U), Y=G^{-1}(U)$とすれば, ${\mbox{\rm Cov}}(X,Y)$が最大となる. これが共通乱数法の原理である.



参考文献

[1] 伏見正則, 『確率的方法とシミュレーション』(岩波講座 応用数学), 岩波書店, 1994.

[2] G. S. Fishman, Monte Carlo-Concepts, Algorithms, and Applications, Springer, 1996.

[3] A. M. Law and W. D. Kelton, Simulation Modeling and Analysis, 2nd. ed., McGraw-Hill, 1991.