《モンテカルロ法》のソースを表示
←
《モンテカルロ法》
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、以下のグループに属する利用者のみが実行できます:
登録利用者
。
このページは編集や他の操作ができないように保護されています。
このページのソースの閲覧やコピーができます。
'''【もんてかるろほう (Monte Carlo method) 】''' システムの特性値などを推定するために, 適当なモデルと乱数を使って実験し, 大数の法則や中心極限定理などを利用して推測を行う方法のこと. システムに確率的な変動が内在する場合だけでなく, 確定的な問題を解くためにも使われる. [[モンテカルロ法]]の原理を簡単な例で示そう. 推定したい特性値を$\theta$とし, これは既知の分布関数$F(y)$を持つ確率変数$Y$の関数$g(Y)$の平均値に等しいものとすれば, :<math> \theta = E[g(Y)]=\int_{-\infty}^\infty g(y)\mathrm{d}F(y) = \int_0^1 h(u) \mathrm{d}u, </math> と書ける. ただし, $h(u)=g(F^{-1}(u))$である. そこで, 区間[0,1]上の一様乱数$U_1, U_2, \cdots, U_N$を発生し, 算術平均 :<math> A_1(N) = \sum_{i=1}^N h(U_i)/N </math> を$\theta$の推定値とすることが考えられる. $A_1(N)$は$\theta$の不偏推定量であり, 分散は :<math> V(A_1(N)) = \frac{\sigma^2}N, \ \ \ \ \ \sigma^2 = \int_0^1 h^2(x) \mathrm{d}x-\theta^2 </math> となる. したがって, 推定量$A_1(N)$に含まれる誤差の標準偏差は$\sigma/\sqrt N $であり, 精度を十進で1桁上げるためには, サンプル数$N$を10倍に増やさなければならない. このように, モンテカルロ法の収束は遅いので, これを改善するための方法が種々提案されており, [[分散減少法]]と総称されている. ただし, これらは$1/\sqrt N$というオーダーを改善するものではなく, 比例係数を小さくするための工夫である. [[[重点サンプリング]]] 積分区間から一様にサンプルをとるのではなく, 重要と考えられる部分($h(x)$の絶対値が大きい部分)により多くの重みをおく密度関数$w(x)$に従う乱数$X_1,\cdots,$\quad $X_N$を発生し, :<math> A_2(N) = \frac 1 N \sum_{i=1}^N \frac{h(X_i)}{w(X_i)} </math> で$\theta$を推定する. $w(x)$が$\left| h(x) \right|$に比例するように選べれば分散は最小となるので, なるべくそれに近くなるように工夫する. [[[制御変量法]]] $\theta$に対するひとつの不偏推定量を$Y$とする. $Y$と相関があって平均値$\zeta$が既知の確率変数$Z$のことを, $Y$の制御変量という. $\alpha$を定数として :<math> Y_\alpha = Y-\alpha(Z-\zeta) </math> と定義すれば, $Y_\alpha$も$\theta$の不偏推定量となり, その分散は$\alpha^* = {\mbox{\rm Cov}}(Y, Z)/V(Z)$のとき最小となり, 最小値は :<math> V(Y_{\alpha^*})=(1-\rho^2)V(Y) </math> である. ここで$\rho$は$Y$と$Z$の相関係数であるから, $Y$と相関の強い制御変量を選ぶほど効果的である. 定積分の例では, $h(u)$に近い関数$h_0(u)$で, その積分の値$\zeta$が正確に計算できるものを選び, :<math> Y_\alpha = h(u)-\alpha(h_0(u)-\zeta) </math> に対して単純な一様サンプリングを適用する. [[[負相関変量法]]] $\theta$の不偏推定量$Y$と平均値が同じで負の相関を持つ変量$Z$を利用して, $W=(Y+Z)/2$を$\theta$の推定量とする. この分散は, $Y$に対して2回独立にサンプルをとって平均する場合の分散より小さくなる. 定積分の例では, もし$h(u)$が単調な関数ならば, $Y=h(U),\;\;\;Z=h(1-U)$とするとよい. [[[共通乱数法]]] 二つの特性値$\theta,\phi$をそれぞれ確率変数$X,Y$に関するモンテカルロ実験によって推定し, 比較したいものとし, $\theta=E[X], \phi=E[Y]$とする. :<math> V(X-Y)=V(X)+V(Y)-2 \mathrm{Cov}(X,Y) </math> であるから, ${\mbox{\rm Cov}}(X,Y)$が大きいほど推定の精度が良くなる. $X$と$Y$の分布関数をそれぞれ$F,G$とし, $X$と$Y$を逆関数法で作るものとする. このとき, $X$と$Y$用に別々の一様乱数列を使う代りに, ひとつの乱数列$\{U\}$を使って, \noindent$X=F^{-1}(U), Y=G^{-1}(U)$とすれば, ${\mbox{\rm Cov}}(X,Y)$が最大となる. これが共通乱数法の原理である. ---- '''参考文献''' [1] 伏見正則, 『確率的方法とシミュレーション』(岩波講座 応用数学), 岩波書店, 1994. [2] G. S. Fishman, ''Monte Carlo-Concepts, Algorithms, and Applications'', Springer, 1996. [3] A. M. Law and W. D. Kelton, ''Simulation Modeling and Analysis, 2nd. ed.'', McGraw-Hill, 1991.
《モンテカルロ法》
に戻る。
案内メニュー
個人用ツール
ログイン
名前空間
ページ
議論
変種
表示
閲覧
ソースを表示
履歴表示
その他
検索
案内
メインページ
コミュニティ・ポータル
最近の出来事
最近の更新
おまかせ表示
ヘルプ
ORWikiへのお問い合わせ
OR学会HP
OR学会アーカイブ集
ツール
リンク元
関連ページの更新状況
特別ページ
ページ情報