《マルコフ決定過程》のソースを表示
←
《マルコフ決定過程》
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、以下のグループに属する利用者のみが実行できます:
登録利用者
。
このページは編集や他の操作ができないように保護されています。
このページのソースの閲覧やコピーができます。
'''【まるこふけっていかてい (Markov decision process) 】''' [[マルコフ決定過程]] (Markov Decision Process: MDP) は, [[待ち行列システム]]の制御, [[在庫管理]]や, [[信頼性]]システムの保全など, 確率システムの動的な最適化問題を定式化する能力に優れた数学モデルであり, 制御マルコフ過程 (controlled Markov process) とも呼ばれる. MDP は 1960 年にハワード (R. A. Howard) による名著 [3] が出版されたことにより, 広く知られるようになり, その後, 理論・応用・アルゴリズムの各面で膨大な数の多様な研究がなされてきている. '''有限マルコフ決定過程''' ここでは, 簡単のため, 離散時間の有限 MDP, すなわち状態数およびアクション数が有限のMDP を考える. 有限 MDP$<math>\{ {X}_{t} \}\, </math>$ は以下の要素で構成される: i) $<math>S := \{ 1, 2, \cdots ,M \}\, </math>$: 有限状態空間, ii) $<math>A(i)$, $i \in S\, </math>$: 状態 $<math>i\, </math>$ でとり得るアクションの有限集合, $<math>A := \bigcup_{i \in S} A(i)\, </math>$: 有限アクション空間, iii) <math>$p(j | i,a)\, </math>$, $<math>i \in S\, </math>$; $<math>a \in A(i)\, </math>$: 状態 $<math>i\, </math>$ でアクション $<math>a\, </math>$をとったとき, つぎの時刻で状態 $<math>j\, </math>$ に遷移する確率, iv) $<math>c(i,a)\, </math>$, $<math>i \in S\, </math>$; $<math>a \in A(i)\, </math>$: 状態 $<math>i\, </math>$ でアクション $<math>a\, </math>$ をとったときの期待即時コスト. 各状態でとるべきアクションを規定する規則, すなわち $<math>S\, </math>$ から $<math>A\, </math>$ への写像 $<math>f\, </math>$ で $<math>f(i) \in A(i)\, </math>$, $<math>i \in S\, </math>$ を満たすもの, を政策という. ここでは定常政策, すなわち写像 $<math>f\, </math>$ が時刻 <math>$t\, </math>$ に依存しないもの, だけを考えるが, 下で述べる最適政策は非定常な政策を含む全ての政策の中で最適なものである. 定常政策の全体を $<math>F\, </math>$ で表す. 最適化すべき[[計画期間]]には, 有限計画期間と無限計画期間の2種類があるが, ここでは無限計画期間を考える. また, 政策の評価規範として最も多く採用され, よく研究されているのは, 下で定義される[[割引き]]コストと平均コストの 2 種類である. 以下で, $<math>X_{t}$, $A_{t}\, </math>$, $<math>t = 0, 1, 2, \cdots\, </math>$ はそれぞれ時刻 $<math>t\, </math>$ における状態とアクションを表す確率変数とし, $<math>\mathrm{E}_{i, f}[\cdot]\, </math>$ は初期状態 $<math>i \in S\, </math>$, 政策 $<math>f \in F$\, </math> のもとでの期待値を表すものとする. '''割引きコスト問題''' 割引き因子を $<math>\beta \in [0,1)\, </math>$ とする無限計画期間上の期待総割引きコスト ($<math>\beta\, </math>$-割引きコスト) : u_{\beta,f}(i) := \mathrm{E}_{i, f} \left[ \sum_{t=0}^{\infty} \beta^{t}c(X_{t},A_{t}) \right], \quad i \in S を, すべての初期状態 $<math>i \in S\, </math>$ に対し, 最小化する政策 $<math>f \in F\, </math>$ ($<math>\beta\, </math>$-割引き最適政策) を求めよ. '''平均コスト問題''' 無限計画期間における長時間平均の単位時間当り期待コスト (平均コスト) : g_{f}(i) := \limsup_{T \to +\infty} \frac{1}{T+1} \mathrm{E}_{i, f} \left[ \sum_{t=0}^{T} c(X_{t}, A_{t}) \right] を, すべての初期状態 $<math>i \in S\, </math>$ に対し, 最小化する政策 $<math>f \in F\, </math>$ (平均最適政策) を求めよ. 以下では, 割引きコスト問題において, よく知られている結果を概説しよう. いま最適 $<math>\beta\, </math>$-割引きコスト関数を u_{\beta}^{*}(i) := \min_{f \in F} u_{\beta,f}(i), \quad i \in S と定義すると, これは最適性方程式と呼ばれるつぎの関数方程式の一意的な解である: \begin{equation} \label{B-D-06+OE} u_{\beta}^{*}(i) = \min_{a \in A(i)} \left\{ c(i,a) + \beta \sum_{j \in S} p(j | i,a) u_{\beta}^{*}(j) \right\}, \quad i \in S. \end{equation} 各状態 <math>$i \in S\, </math>$ に対して, 最適性方程式 (\ref{B-D-06+OE}) の右辺の $<math>\min\, </math>$ を達成する (任意の) アクションを $<math>f^{*}(i) \in A(i)\, </math>$ で表すと, それらで構成される政策 $<math>f^{*} := (f^{*}(i); i \in S) \in F\, </math>$ は $<math>\beta\, </math>$-割引き最適政策である. 最適性方程式 (1) の標準的な数値解法としては, a. ハワードの提案による[[政策反復アルゴリズム]] (policy iteration method), b. 値反復アルゴリズム (逐次近似アルゴリズム), c. [[線形計画]]による解法, などが挙げられる. 割引きコスト問題に対する政策反復アルゴリズムは以下の通りである. '''[政策反復アルゴリズム]''' '''ステップ 0 (初期化)''' : 初期政策 $<math>f_{0} \in F\, </math>$ を与える. '''ステップ 1 (政策評価)''' : 現在の政策 $<math>f_{n} \in F\, </math>$ のもとでの $<math>\beta\, </math>$-割引きコスト関数 $<math>u_{\beta,f_{n}} = (u_{\beta,f_{n}}(i); i \in S)\, </math>$ を, つぎの線形方程式系を解くことで計算する: \begin{equation} \label{B-D-06+PI1} u_{\beta,f_{n}}(i) = c(i,f_{n}(i)) + \beta \sum_{j \in S} p(j | i,f_{n}(i)) u_{\beta,f_{n}}(j), \quad i \in S. \end{equation} '''ステップ 2 (政策改良)''' : 不等式 \begin{equation} \label{B-D-06+PI2} u_{\beta,f_{n}}(i) \geq c(i,f(i)) + \beta \sum_{j \in S} p(j | i,f(i)) u_{\beta,f_{n}}(j) \end{equation} を, すべての状態 $<math>i \in S\, </math>$ に対して成立させ, なおかつ, 少なくとも 1 つの状態では狭義の不等号で成立させる政策 $<math>f \in F\, </math>$ があれば, $<math>f_{n+1} \leftarrow f\, </math>$, $<math>n \leftarrow n+1\, </math>$ としてステップ 1 へ, さもなくば停止. 停止したとき, 最終の $<math>f_{n}\, </math>$ は $<math>\beta\, </math>$-割引き最適な政策である. 通常, ステップ 2 (政策改良) では, 各状態 $<math>i \in S\, </math>$ において式 (3) の右辺を最小化するアクションをとる政策が新しい政策 $<math>f_{n+1}\, </math>$ として選ばれる. 政策反復アルゴリズムは高速な解法として広く認められており, その収束に要する反復回数は, 経験的に, 問題の規模にあまり依存しない. この性質は非線形方程式系に対する数値解法であるニュートン・ラフソン法 (Newton-Raphson method) と共通のものであり, この政策反復アルゴリズムはニュートン・ラフソン法を適用することと等価であることが示されている. 政策反復アルゴリズムの弱点はステップ 1 (政策評価) において状態数だけの変数を持つ線形方程式系を解かなければならないことにある. したがって問題の規模が大きくなるにつれてその実行が負担となる. その弱点を克服するため, ステップ 1 を有限回の反復の逐次近似で代用する方法 (修正政策反復アルゴリズム) も提案されている. ここでは離散時間の有限 MDP の割引きコスト問題のみを概説したが, a) 他の様々な評価規範, b) 状態空間/アクション空間の一般化, c) 状態遷移の時間間隔が確率的な[[セミマルコフ決定過程]], についても多くの研究がなされている. 実際問題への適用の際に現れる情報の不完全性を明示的に考慮した, d) 不完全観測マルコフ決定過程, e) 遷移確率が未知パラメータを含む適応マルコフ決定過程, に関する研究も歴史が長い. また最近, 複数の評価規範を考慮し, f) すべての評価規範を[[目的関数]]として同時に最適化する多目的マルコフ決定過程, g) 一部の評価規範を制約条件に取り入れた制約付きマルコフ決定過程, なども関心を集め, 理論・応用・アルゴリズムの各面に関する活発な研究がなされている. ---- '''参考文献''' [1] D. P. Bertsekas, ''Dynamic Programming and Optimal Control'', Vols. I, II, Athena Scientific, Belmont, Massachusetts, 1995. [2] O. Hernández-Lerma and J. B. Lasserre, ''Discrete-Time Markov Control Processes, Basic Optimality Criteria'', Springer-Verlag, New York, 1995. [3] R. A. Howard, ''Dynamic Programming and Markov Processes'', The MIT Press, Cambridge, Massachusetts, 1960. [4] M. L. Puterman, ''Markov Decision Processes'', John Wiley & Sons, New York, 1994. [5] S. M. Ross, ''Introduction to Stochastic Dynamic Programming'', Academic Press, New York, 1983. [6] P. Whittle, ''Optimization over Times: Dynamic Programming and Stochastic Control'', Vols. I, II, John Wiley & Sons, New York, 1983.
《マルコフ決定過程》
に戻る。
案内メニュー
個人用ツール
ログイン
名前空間
ページ
議論
変種
表示
閲覧
ソースを表示
履歴表示
その他
検索
案内
メインページ
コミュニティ・ポータル
最近の出来事
最近の更新
おまかせ表示
ヘルプ
ORWikiへのお問い合わせ
OR学会HP
OR学会アーカイブ集
ツール
リンク元
関連ページの更新状況
特別ページ
ページ情報