<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ja">
	<id>https://orsj-ml.org/orwiki/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=220.104.197.230</id>
	<title>ORWiki - 利用者の投稿記録 [ja]</title>
	<link rel="self" type="application/atom+xml" href="https://orsj-ml.org/orwiki/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=220.104.197.230"/>
	<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E7%89%B9%E5%88%A5:%E6%8A%95%E7%A8%BF%E8%A8%98%E9%8C%B2/220.104.197.230"/>
	<updated>2026-04-08T14:22:15Z</updated>
	<subtitle>利用者の投稿記録</subtitle>
	<generator>MediaWiki 1.35.3</generator>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%A2%BA%E7%8E%87%E8%AB%96%E3%80%8B&amp;diff=5041</id>
		<title>《確率論》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%A2%BA%E7%8E%87%E8%AB%96%E3%80%8B&amp;diff=5041"/>
		<updated>2007-07-16T14:47:17Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【かくりつろん (probability theory) 】'''&lt;br /&gt;
&lt;br /&gt;
　不確実な現象を表現する手段としての確率論は, コルモゴロフ (A. N. Kolmogorov) が測度論的確率論を打ち立ててから数学的基礎ができたと言えよう.その後の確率論の理論的深化と応用は目を見張るものがあり, オペレーションズ・リサーチへの応用に限っても, [[待ち行列理論]], [[在庫理論]], [[ファイナンス理論]], [[動的計画]], [[確率計画]], [[信頼性理論]], [[シミュレーション]]等多岐にわたっている. 特に, 数理統計学や待ち行列理論は理論的基礎の多くを確率論に置いており, 数学的な観点からも興味ある問題を提起し続けている. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''確率空間と確率変数'''　確率論を考える上で基礎となるのは, 確率空間 &amp;lt;math&amp;gt;(\Omega, {\mathcal F}, \mathrm{P})\, &amp;lt;/math&amp;gt; である. ここで, 標本空間 &amp;lt;math&amp;gt;\Omega\, &amp;lt;/math&amp;gt; は起こり得る結果 (根元事象) &amp;lt;math&amp;gt;\omega\, &amp;lt;/math&amp;gt; の集合, &amp;lt;math&amp;gt;{\mathcal F}\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;\Omega\, &amp;lt;/math&amp;gt; 上の &amp;lt;math&amp;gt;\sigma\, &amp;lt;/math&amp;gt;--集合体, &amp;lt;math&amp;gt;\mathrm{P}\, &amp;lt;/math&amp;gt; は確率を表す. しかし, 確率モデルに対して確率空間を明示するのは煩雑なため, 通常は &amp;lt;math&amp;gt;(\Omega, {\mathcal F}, \mathrm{P})\, &amp;lt;/math&amp;gt; を抽象的な基礎空間と捉え, &amp;lt;math&amp;gt;\Omega\, &amp;lt;/math&amp;gt; から観察される現象の空間 &amp;lt;math&amp;gt;{\mathcal S}\, &amp;lt;/math&amp;gt; への写像である確率変数を中心に考える. &lt;br /&gt;
&lt;br /&gt;
　以下では, &amp;lt;math&amp;gt;{\mathcal S}\, &amp;lt;/math&amp;gt; として実数や整数, あるいはこれらの多次元空間を考え, 確率変数を &amp;lt;math&amp;gt;X(\omega)\, &amp;lt;/math&amp;gt; あるいは単に &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; で表す. 例えば, サイコロを投げる試行では &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; は1から6のどれかの値をとり, &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; が測定誤差を表すならば実数全体をとる. また, &amp;lt;math&amp;gt;K\, &amp;lt;/math&amp;gt; 個の離散的時系列ならば &amp;lt;math&amp;gt;X=\{ X_1, \ldots, X_K \}\, &amp;lt;/math&amp;gt; となり, 連続時間上の変動ならば &amp;lt;math&amp;gt;X=\{ X_t \; : \; t \in \mbox{R} \}\, &amp;lt;/math&amp;gt; と表現される. 一般に, 時間パラメーターを伴う確率変数の集まりは[[確率過程]]と呼ばれる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''確率分布'''　確率変数を特徴付ける主な要素は確率分布である. &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; が実数値確率変数のとき, &amp;lt;math&amp;gt;\mbox{R}\, &amp;lt;/math&amp;gt; の部分集合 &amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt; (正確には &amp;lt;math&amp;gt;\mbox{R}\, &amp;lt;/math&amp;gt; 上のボレル集合体 &amp;lt;math&amp;gt;{\mathcal B}_1\, &amp;lt;/math&amp;gt; の要素 &amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;) に対し, &amp;lt;math&amp;gt;X \in A\, &amp;lt;/math&amp;gt; となる確率は &amp;lt;math&amp;gt;\mathrm{P}(\{\omega : X(\omega) \in A \})\, &amp;lt;/math&amp;gt; で与えられる. このように, 集合 &amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt; に対して &amp;lt;math&amp;gt;X \in A\, &amp;lt;/math&amp;gt; となる確率を対応させたものを &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; の[[確率分布]], あるいは単に分布と呼ぶ. 特に, &amp;lt;math&amp;gt;A=(-\infty, x]\, &amp;lt;/math&amp;gt; としたときの確率&amp;lt;math&amp;gt;F(x)=\mathrm{P}(X \leq x)\; (=\mathrm{P}(\{\omega : X(\omega) \leq x\}))\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; の関数と考えて &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; の[[確率分布関数]]または分布関数と呼ぶ. &amp;lt;math&amp;gt;F(x)\, &amp;lt;/math&amp;gt; は単調非減少な右連続関数で, &amp;lt;math&amp;gt;F(-\infty)=0\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;F(+\infty)=1\, &amp;lt;/math&amp;gt; を満たす. &lt;br /&gt;
&lt;br /&gt;
　分布の中で, とり得る値が高々可算個である確率分布を[[離散型分布]]と呼ぶ. &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; が &amp;lt;math&amp;gt;\{ \ldots, x_{-1}, x_0, x_1, \ldots \}\, &amp;lt;/math&amp;gt; の値をとる離散型分布であれば, [[確率関数]] &amp;lt;math&amp;gt;p(k) = \mathrm{P}(X=x_k)\, &amp;lt;/math&amp;gt; によって分布を表すことができる. 離散型分布に対し, &amp;lt;math&amp;gt;F(x)\, &amp;lt;/math&amp;gt; が連続な分布を[[連続型分布]]という. 実際に用いられるほとんどの連続型分布は &amp;lt;math&amp;gt;F(x)\, &amp;lt;/math&amp;gt; が微分可能であり, [[確率密度関数]] &amp;lt;math&amp;gt;f(x)=\mathrm{d}F(x)/\mathrm{d}x\, &amp;lt;/math&amp;gt;によって分布を表現できる. &amp;lt;math&amp;gt;f(x)\, &amp;lt;/math&amp;gt; は単に密度関数とも呼ばれる. 密度関数を持つ分布は絶対連続型分布, あるいは単に連続型分布と呼ばれることもある. &lt;br /&gt;
&lt;br /&gt;
　離散分布の例としては, [[2項分布]], [[ポアソン分布]], [[幾何分布]]などがあり, 密度関数をもつ分布の例としては[[正規分布]], [[指数分布]], [[一様分布]]などがある. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''期待値と分散'''　確率関数や密度関数では, 一目で分布の性質を捉えたり分布を比較することが難しい場合もあるため, 確率分布の特徴を少数の数値で表現できると都合がよい. その代表は分布の中心を表す[[期待値]] (あるいは[[平均]]) &amp;lt;math&amp;gt;\textstyle \mathrm{E}(X)=\int x \mathrm{d} F(x)\, &amp;lt;/math&amp;gt; と分布の散らばり具合を表す[[分散]] &amp;lt;math&amp;gt;\textstyle \mathrm{V}(X) =\int (x-\mathrm{E}(X))^2 \mathrm{d}F(x)\, &amp;lt;/math&amp;gt;, もしくは分散の平方根の標準偏差である. なお, &amp;lt;math&amp;gt;\textstyle \int g(x) \mathrm{d} F(x)\, &amp;lt;/math&amp;gt; の形の積分は, &amp;lt;math&amp;gt;F(x)\, &amp;lt;/math&amp;gt; が離散型分布の場合は &amp;lt;math&amp;gt;\textstyle \sum g(x_i) \mathrm{P}(X=x_i)\, &amp;lt;/math&amp;gt;, 密度関数 &amp;lt;math&amp;gt;f(x)\, &amp;lt;/math&amp;gt; を持つ場合は &amp;lt;math&amp;gt;\textstyle \int g(x) f(x) \mathrm{d} x\, &amp;lt;/math&amp;gt; と理解してよい. 平均や分散のように &amp;lt;math&amp;gt;\textstyle \mu_j=\int (x-a)^j \mathrm{d} F(x)\, &amp;lt;/math&amp;gt; の形で表される数値を一般に &amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt; 次の積率 (moment) と呼ぶ. 特に, &amp;lt;math&amp;gt;a=0\, &amp;lt;/math&amp;gt; のときは原点周りの積率, &amp;lt;math&amp;gt;a=\mathrm{E}(X)\, &amp;lt;/math&amp;gt; のときは平均周り積率となる. &amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt; が高次になるにつれて &amp;lt;math&amp;gt;\mu_j\, &amp;lt;/math&amp;gt; の表現が複雑になる傾向があるため, [[特性関数 (確率変数の)|特性関数]] &amp;lt;math&amp;gt;\textstyle \phi(t)=\int \mathrm{e}^{\mathrm{i}tx} \mathrm{d} F(x)\, &amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt; は実数パラメータ, &amp;lt;math&amp;gt;\mathrm{i}\, &amp;lt;/math&amp;gt; は虚数単位), あるいは[[積率母関数]] &amp;lt;math&amp;gt;\textstyle M(\theta)=\int \mathrm{e}^{\theta x} \mathrm{d}F(x)\, &amp;lt;/math&amp;gt; を利用して&amp;lt;math&amp;gt;\mu_j\, &amp;lt;/math&amp;gt; を求める方法が考えられている. 例えば, 積率母関数 &amp;lt;math&amp;gt;M(\theta)\, &amp;lt;/math&amp;gt; が陽に求まれば, 原点周りのモーメントは &amp;lt;math&amp;gt;\textstyle \mu_j = \mathrm{d}^j M(\theta) / \mathrm{d} \theta^j |_{\theta=0}\, &amp;lt;/math&amp;gt; で計算される. また, 非負の値をとる確率変数に対しては, [[ラプラス変換]]を利用してもよい. これらの変換は, 元の分布関数と1対1に対応しており, 原理的には逆変換によって元の分布を求めることができる. また, 変換を利用することで, たたみこみなど分布に関する演算が簡単になることも多い. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''多次元分布'''　1次元の場合の自然な拡張として, &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; 個の実数値確率変数 &amp;lt;math&amp;gt;X_1, \ldots, X_n\, &amp;lt;/math&amp;gt; に対しても, [[多次元分布関数]] &amp;lt;math&amp;gt;\mathrm{P}(X_1 \leq x_1, \ldots, X_n \leq x_n)\, &amp;lt;/math&amp;gt; によって分布を定めることができる. 代表的な多次元分布としては, 多変量解析などの基礎となる[[多次元正規分布]]がある. 多次元分布では, 複数の確率変数の関係に興味がある場合が多い. そのような関係を表す指標として, 2つの確率変数 &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;Y\, &amp;lt;/math&amp;gt; の[[共分散]] &amp;lt;math&amp;gt;\mathrm{Cov}(X,Y)=\mathrm{E}(\{X-\mathrm{E}(X)\}\{Y-\mathrm{E}(Y)\})\, &amp;lt;/math&amp;gt; や, [[相関係数]] &amp;lt;math&amp;gt;r(X,Y)=\mathrm{Cov}(X,Y)/\sqrt{\mathrm{V}(X)\mathrm{V}(Y)}\, &amp;lt;/math&amp;gt; がある. 相関係数は &amp;lt;math&amp;gt;-1 \leq r(X,Y) \leq 1\, &amp;lt;/math&amp;gt; の範囲の値をとり, &amp;lt;math&amp;gt;r(X,Y)\, &amp;lt;/math&amp;gt; が1に近い場合は, 一方の値が大きいと他方も大きな値を, 一方の値が小さいと他方も小さな値をとる傾向が強い. &amp;lt;math&amp;gt;r(X,Y)\, &amp;lt;/math&amp;gt; が &amp;lt;math&amp;gt;-1\, &amp;lt;/math&amp;gt; に近いときは, 反対の傾向となる. また, &amp;lt;math&amp;gt;r(X,Y)=0\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;Y\, &amp;lt;/math&amp;gt; は無相関と呼ばれる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''確率変数の独立性'''　&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; 個の確率変数 &amp;lt;math&amp;gt;X_1, \ldots, X_n\, &amp;lt;/math&amp;gt; が, 任意の &amp;lt;math&amp;gt;x_1,\ldots,x_n\, &amp;lt;/math&amp;gt; に対して&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mathrm{P}(X_1 \leq x_1, \ldots, X_n \leq x_n)&lt;br /&gt;
    = \prod_{i=1}^n \mathrm{P}(X_i \leq x_i)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を満たすとき, &amp;lt;math&amp;gt;X_1, \ldots, X_n\, &amp;lt;/math&amp;gt; は[[独立 (確率変数の)|独立]]であるという. 直観的には, 各確率変数の値が他の確率変数の値と無関係に決まることを意味する. なお, &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;Y\, &amp;lt;/math&amp;gt; が独立であれば無相関となるが, その逆は一般に成立しない. 独立な確率変数 &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;Y\, &amp;lt;/math&amp;gt; の確率分布関数を &amp;lt;math&amp;gt;F_X(x), F_Y(x)\, &amp;lt;/math&amp;gt; とするとき, その和 &amp;lt;math&amp;gt;S = X+Y\, &amp;lt;/math&amp;gt; の確率分布関数は, &amp;lt;math&amp;gt;\textstyle F_S(x)= \int F_X(x-y) \mathrm{d} F_Y(y)\, &amp;lt;/math&amp;gt; によって計算できる. 同様に, 整数値をとる離散型分布に対しては &amp;lt;math&amp;gt;\textstyle \mathrm{P}(S=k)=\sum_i \mathrm{P}(X=k-i)\mathrm{P}(Y=i)\, &amp;lt;/math&amp;gt; によって &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; の確率関数を, また, &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;Y\, &amp;lt;/math&amp;gt; が密度関数をもつ場合は, &amp;lt;math&amp;gt;\textstyle f_S(x)=\int f_X(x-y)f_Y(y) \mathrm{d}y\, &amp;lt;/math&amp;gt; によって &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; の密度関数を求めることができる. [[たたみ込み]]と呼ばれるこれらの方法から, 2つの指数分布の和はガンマ分布になり, 2つの正規分布の和はやはり正規分布になる, といったことがわかる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個の確率変数の和'''　&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個の確率変数の和 &amp;lt;math&amp;gt;S_n=X_1+\ldots+X_n\, &amp;lt;/math&amp;gt; は理論と応用のいずれにおいても重要な問題を提起してきた. &amp;lt;math&amp;gt;S_n/n\, &amp;lt;/math&amp;gt; は算術平均であるから統計処理上頻繁に使われる. &amp;lt;math&amp;gt;X_1, \ldots, X_n\, &amp;lt;/math&amp;gt; が互いに独立で同一の分布に従い, 平均 &amp;lt;math&amp;gt;\mu\, &amp;lt;/math&amp;gt;, 分散 &amp;lt;math&amp;gt;\sigma^2\, &amp;lt;/math&amp;gt; をもてば, &amp;lt;math&amp;gt;S_n/n\, &amp;lt;/math&amp;gt; の平均は &amp;lt;math&amp;gt;\mu\, &amp;lt;/math&amp;gt;, 分散は &amp;lt;math&amp;gt;\sigma^2/n\, &amp;lt;/math&amp;gt; であるから, &amp;lt;math&amp;gt;n\rightarrow\infty\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;S_n/n\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;\mu\, &amp;lt;/math&amp;gt; に収束する. このように &amp;lt;math&amp;gt;S_n/n\, &amp;lt;/math&amp;gt; が平均に収束することを[[大数の法則]]といい, 収束が概収束か確率収束かに応じて, それぞれ大数の強法則, 大数の弱法則と呼ばれる. 大数の強法則は[[エルゴード理論]]と密接に関係しており, ある種の条件を満たせば &amp;lt;math&amp;gt;X_1, \ldots, X_n\, &amp;lt;/math&amp;gt; が独立でなくとも &amp;lt;math&amp;gt;S_n/n\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;\mu\, &amp;lt;/math&amp;gt; に収束することが知られている. 独立確率変数列 &amp;lt;math&amp;gt;X_1, X_2, \ldots\, &amp;lt;/math&amp;gt; がそれぞれ平均 &amp;lt;math&amp;gt;\mu\, &amp;lt;/math&amp;gt;, 分散 &amp;lt;math&amp;gt;\sigma^2\, &amp;lt;/math&amp;gt; の同じ分布に従う場合, 元の分布が何であっても &amp;lt;math&amp;gt;\textstyle \sum_{i=1}^n (X_i-\mu) / \sigma \sqrt{n}\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;n\rightarrow \infty\, &amp;lt;/math&amp;gt; のとき平均0, 分散1の正規分布に近づく. これを[[中心極限定理]]といい, 確率論における正規分布の重要性の根拠となっている. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] H. Bauer, ''Probability Theory and Elements of Measure Theory'', 2nd ed., Academic Press, 1983.&lt;br /&gt;
  &lt;br /&gt;
[2] M. Lo&amp;amp;eacute;ve, ''Probability Theory I'', 4th ed., Springer, 1977, ''Probability Theory II'', 4th ed., Springer, 1978.&lt;br /&gt;
  &lt;br /&gt;
[3] 伊藤清, 『確率論』, 岩波書店, 1991.&lt;br /&gt;
  &lt;br /&gt;
[4] 伏見正則, 『確率と確率過程』, 講談社, 1987.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%94%9F%E7%89%A9%E5%AD%A6%E3%81%AB%E3%81%8A%E3%81%91%E3%82%8B%E9%80%B2%E5%8C%96%E3%82%B2%E3%83%BC%E3%83%A0%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5040</id>
		<title>《生物学における進化ゲーム理論》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%94%9F%E7%89%A9%E5%AD%A6%E3%81%AB%E3%81%8A%E3%81%91%E3%82%8B%E9%80%B2%E5%8C%96%E3%82%B2%E3%83%BC%E3%83%A0%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5040"/>
		<updated>2007-07-16T14:45:12Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【せいぶつがくにおけるしんかげーむりろん (evolutionary game theory in biology) 】'''&lt;br /&gt;
&lt;br /&gt;
　メーナード・スミス（J. Maynard Smith）はゲーム理論をもとに生物学における進化ゲーム理論を発展させた[1]。最近では社会科学の分野でも進化ゲーム理論は注目を浴びつつあり、社会科学上未解決だった問題を生物学における自然選択のアナロジーを用いて解決しようとしている。&lt;br /&gt;
&lt;br /&gt;
　生物学における進化ゲーム理論では自然選択説による進化が前提となる。まずは重要な指標である「適応度」の定義をしよう。適応度とは、繁殖齢の個体が出産する子供の数にその子供が繁殖齢になるまでの生存率をかけたものである。適応度は生物の置かれた自然環境や生物自身が作り出す社会環境からも影響を受ける。生物個体同士の種内・種間相互作用が適応度に影響を与える時に進化ゲーム理論が適用可能となり、ゲーム理論での利得や効用に当たる尺度として適応度が用いられる。&lt;br /&gt;
&lt;br /&gt;
　自然選択による進化のためには、選択（あるいは淘汰）、変異、遺伝の３つの要素が必要であり、基本的には１つでも欠けると進化は生じない[2][3][4]。例として、集団をある形質A が占めていて、形質Aが「変異」して形質Bが生じる場合を考えてみる。「形質」とは、進化生物学における専門用語であり、各個体に備わっている形や性質である。形質Aを野生型（wild type）、形質Bを突然変異型と呼ぶ。子供へ形質Bが「遺伝」し、形質Aよりも適応度が高ければ、つまり、「選択」（あるいは「淘汰」）が生じれば、形質Bは自然選択によって進化する。もし、形質Aが形質B に取って代わられることがなければ、形質Aは進化的に安定な戦略（ESS: evolutionarily stable strategy）であるという。一般のゲーム理論では、戦略とは各プレイヤーが意思を持って選択する行動計画であるが、進化ゲーム理論ではそうでなく、各個体に備わっている形質そのもの，ないしは形質によって定まる行動を戦略と呼ぶ。&lt;br /&gt;
&lt;br /&gt;
　メイナード・スミスとプライス（J. Maynard Smith and G. R. Price）によると、&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;E[A, A] &amp;gt; E[B, A]\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
あるいは、&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;E[A, A] = E[B, A] \, &amp;lt;/math&amp;gt;かつ&amp;lt;math&amp;gt;E[A, B] &amp;gt; E[B, B]\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が成り立つときに、戦略Aは進化的に安定であるという[1]。ただし、&amp;lt;math&amp;gt;E[A, B]\, &amp;lt;/math&amp;gt;は形質Aと形質Bがゲームをしたときの形質Aの利得（適応度）である。&lt;br /&gt;
&lt;br /&gt;
　以下では、資源を巡る競争を表すタカハトゲームを例に挙げる[1]。各プレーヤーはタカ戦略とハト戦略のどちらかを採る形質を備えている。タカは資源を巡って実際に戦う攻撃的な戦略であり、ハトは平和的に解決する戦略である。両方ハト戦略の場合には資源量&amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;を等分する。一方がハトで一方がタカであれば、タカがすべての資源量&amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;を得、ハトは何も得られない。両方タカの場合には実際に対戦し体力消耗などのコスト&amp;lt;math&amp;gt;C\, &amp;lt;/math&amp;gt;を被るため、平均利得は&amp;lt;math&amp;gt;(V-C)/2\, &amp;lt;/math&amp;gt;となる。資源量が対戦コストより大きく&amp;lt;math&amp;gt;V &amp;gt; C\, &amp;lt;/math&amp;gt;であれば、進化的に安定な純粋戦略はタカ戦略である。もし資源量より対戦コストが大きく&amp;lt;math&amp;gt;V &amp;lt; C\, &amp;lt;/math&amp;gt;であれば、タカもハトも進化的に安定な戦略ではなくなる。混合戦略&amp;lt;math&amp;gt;(p,1-p)\, &amp;lt;/math&amp;gt;（&amp;lt;math&amp;gt;p,1-p\, &amp;lt;/math&amp;gt;はそれぞれタカ戦略，ハト戦略を用いる確率）まで考えると、混合戦略が進化的安定になる条件を与えるBishop &amp;amp; Cannings(1978) の定理を用いることにより[1]、&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;E[\, &amp;lt;/math&amp;gt;タカ&amp;lt;math&amp;gt;, ~(p,1-p)] = E[\, &amp;lt;/math&amp;gt;ハト&amp;lt;math&amp;gt;, ~(p,1-p)],\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が成り立たなければならない。この式から&amp;lt;math&amp;gt;p = V/C\, &amp;lt;/math&amp;gt; が得られ、&amp;lt;math&amp;gt;(V/C, 1-V/C)\, &amp;lt;/math&amp;gt;が進化的に安定な混合戦略となる。&lt;br /&gt;
&lt;br /&gt;
　以上の例では、利得が戦略のみに依存する対称ゲームであったが、性別や年齢、社会的立場によって利得が異なる非対称ゲームとなることもある。例えば、親の性別による子の世話を考えると、父親と母親では適応度が異なってくる。オスの場合は、子育てよりも他のメスと交尾した方が適応度が上昇するかもしれない。メスも世話をするより、沢山の卵を産みっぱなしにして子育てを放棄するという戦略もあり得る。また、子育てによって子供の生存率は上がるならば子育てに専念した方がよいであろう。メーナード・スミス[1]によると、子育てする場合としない場合とでオスが別のメスに出会う確率があまり変わらない場合や、片親で育てた時の子供の生存率が両親で育てた時の生存率よりかなり低いという場合には、両親が子育てすることがESSとなる。また、両親とも子育てしない時の子の生存率がどちらかが子育てする時の生存率よりかなり低い時には片親による子育てが進化的に安定になるが、オスにとって子育てしない方が次の交尾相手に出会う確率が高ければオスが子育てを放棄しメスのみが子育てをする、というような結果が得られている。&lt;br /&gt;
&lt;br /&gt;
　以上ではゲームの利得行列をもとに進化的に安定な戦略を説明したが、各戦略を採用するプレーヤーの頻度の時間変化や進化的に安定な戦略へ収束するまでの集団動態を知るには、リプリケーターダイナミクスが有効である[5]（「進化と学習のゲーム理論」を参照）。ただ、リプリケーターダイナミクスでは、高い利得を得た戦略が世代毎に増えていくことを前提としているが、生物学的に現実に忠実にモデル化しようとすると、このような前提のみでは不十分な場合があるので注意しなければならない[6]。&lt;br /&gt;
&lt;br /&gt;
　以上では形質が離散的に異なる場合であったが、形質が連続量であり突然変異によって形質が徐々に変化していく場合もある。樹高を例に取ると、周囲の木との光を巡る競争ではできるだけ高いほうがよいが、逆に高すぎると維持コストがかかるというトレードオフがあり、進化ゲーム理論によって最適な樹高を計算することができる[7]。&lt;br /&gt;
&lt;br /&gt;
　以下では連続形質の進化的に安定な戦略の定義を説明する。形質&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;は形質の連続量。たとえば樹高など) の占めている集団へ突然変異型&amp;lt;math&amp;gt;y\, &amp;lt;/math&amp;gt;が侵入したときの、突然変異型&amp;lt;math&amp;gt;y\, &amp;lt;/math&amp;gt;の適応度関数を&amp;lt;math&amp;gt;\phi (y,x)\, &amp;lt;/math&amp;gt;と定義する。ESSである形質を&amp;lt;math&amp;gt;x^*\, &amp;lt;/math&amp;gt;とすると、&amp;lt;math&amp;gt;y\, &amp;lt;/math&amp;gt;が&amp;lt;math&amp;gt;x^*\, &amp;lt;/math&amp;gt;の近傍である時、&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\frac{\partial \phi (y,x)}{\partial y}\Bigg|_{y=x=x^*} =0 &lt;br /&gt;
\ \ and  \ \ \frac{\partial^2 \phi (y,x)}{\partial y^2} \Bigg|_{y=x=x^*} &amp;lt;0\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
つまり&amp;lt;math&amp;gt;\phi (y,x)\, &amp;lt;/math&amp;gt;が極大値となる &amp;lt;math&amp;gt;y=x=x^*\, &amp;lt;/math&amp;gt;が ESSとなる。連続形質の進化のいま１つの例として性比を考える。多くの生物ではオスメス比が&amp;lt;math&amp;gt;1:1\, &amp;lt;/math&amp;gt;であり、これが当たり前のようであるが、オスを少なく産んでメスを多く産んだ方が子孫が多くなるのではないであろうか。そうだとすると何故&amp;lt;math&amp;gt;1:1\, &amp;lt;/math&amp;gt;なのであろうか。フィッシャー（R. A. Fisher）は、子供の数だけでなく、孫の数に着目して適応度を定義した上で進化ゲーム理論による解析を行い、任意交配で集団サイズが十分大きな時には性比が&amp;lt;math&amp;gt;1:1\, &amp;lt;/math&amp;gt;の状態が進化的に安定であることを示した [2][3][4][7]。&lt;br /&gt;
&lt;br /&gt;
　上記のESSの定義だけでは、いかなる変異型も&amp;lt;math&amp;gt;x^*\, &amp;lt;/math&amp;gt;には侵入できないというだけであり、集団の形質値が&amp;lt;math&amp;gt;x^*\, &amp;lt;/math&amp;gt; から少しずれただけで安定性が崩れる可能性もある。集団の形質値&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;がESSである&amp;lt;math&amp;gt;x^*\, &amp;lt;/math&amp;gt;からずれている時、変異体&amp;lt;math&amp;gt;y\, &amp;lt;/math&amp;gt;（ただし、&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;より&amp;lt;math&amp;gt;x^*\, &amp;lt;/math&amp;gt;に近い形質値。&amp;lt;math&amp;gt;x &amp;lt; y &amp;lt; x^*\, &amp;lt;/math&amp;gt; あるいは &amp;lt;math&amp;gt;x^* &amp;lt; y &amp;lt; x\, &amp;lt;/math&amp;gt;）に侵入される場合を連続進化可能な戦略（CSS: continuously stable strategy)という[8]。つまり&amp;lt;math&amp;gt;x^*\, &amp;lt;/math&amp;gt;がCSSの時は、変異によって野生型が&amp;lt;math&amp;gt;x^*\, &amp;lt;/math&amp;gt;からずれて&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;となっても、時間が経つとまた&amp;lt;math&amp;gt;x^*\, &amp;lt;/math&amp;gt;へ戻るのである。&lt;br /&gt;
&lt;br /&gt;
　以上の進化ゲームによる分析では、適応度関数 を定義しなければならない。一方、アダプティブ・ダイナミクス（adaptive dynamics）では個体群動態の式（集団中のある形質の頻度の時間変化）から適応度関数&amp;lt;math&amp;gt;\phi (y,x)\, &amp;lt;/math&amp;gt;に相当するある関数（invasion fitness）を導出するだけで、ESSやCSSだけではなく共存可能な条件や分岐（branching）条件を得る事が可能となる[9]。&lt;br /&gt;
&lt;br /&gt;
　以上、生物の進化ゲームの紹介をしてきたが、人間も生物の一員である以上は、ある形質に関しては生物進化の観点からの進化ゲーム研究も可能であろう。たとえば言語能力や文化、規範、道徳、制度などについて生物進化の観点からの数理モデル解析が進められている[10][11][12][13]。これらの分析は、従来の研究にはなかった全く新たな視点を与えるものであり、これからの発展が大いに期待されている。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] J. Maynard Smith, &amp;quot;Evolution and the Theory of Games,&amp;quot; Cambridge University Pres, 1982. 寺本英, 梯正之 訳, 『進化とゲーム理論』, 産業図書, 1985.  &lt;br /&gt;
  &lt;br /&gt;
[2] 粕谷英一, 『行動生態学入門』, 東海大学出版会, 1990.&lt;br /&gt;
  &lt;br /&gt;
[3] 酒井聡樹, 高田壮則, 近雅博, 『生き物の進化ゲーム』, 共立出版, 1999.&lt;br /&gt;
  &lt;br /&gt;
[4] 嶋田正和, 山村則男, 粕谷英一, 伊藤嘉昭, 『動物生態学 新版』, 海游舎, 2005.&lt;br /&gt;
  &lt;br /&gt;
[5] J. Hofbauer, K. Sigmund, &amp;quot;Evolutionary Games and Population Dynamics,&amp;quot; Cambridge University Press, 1998. 竹内康博, 佐藤一憲, 宮崎倫子 訳, 『進化ゲームと微分方程式』, 現代数学社, 2001.  &lt;br /&gt;
  &lt;br /&gt;
[6] M. Nakamaru and Y. Iwasa, &amp;quot;The evolution of altruism by costly punishment in the lattice structured population: score-dependent viability versus score-dependent fertility,&amp;quot; ''Evolutionary Ecology Research'', '''7''' (2005), 853-870.   &lt;br /&gt;
&lt;br /&gt;
[7] 巌佐庸, 『数理生物学入門』, 共立出版, 1992.&lt;br /&gt;
&lt;br /&gt;
[8] I. Eshel, &amp;quot;Evolutionary and Continuous Stability,&amp;quot; ''Journal of Theoretical Biology'', '''103''' (1983), 99-111. &lt;br /&gt;
&lt;br /&gt;
[9] O. Diekmann, ''A Beginner's Guide to Adaptive Dynamics, Mathematical Modelling of Population Dynamics, Banach Center Publications'', Vol. 63, Institute of Mathematics Polish Academy of Sciences, Warszawa, 2004.&lt;br /&gt;
&lt;br /&gt;
[10] L. L. Cavalli-Sforza, M. W. Feldman, ''Cultural Transimission and Evolution: A Quantitative Approach'', Princeton University Press, 1981.    &lt;br /&gt;
&lt;br /&gt;
[11] R. Boyd, P. J. Richerson, ''Culture and the Evolutionary Process'', Chicago University Press, 1985. &lt;br /&gt;
  &lt;br /&gt;
[12] F. J. Odling-Smee, K. L. Laland, M. W. Feldman, ''Niche construction'', Princeton University Press, 2003. &lt;br /&gt;
&lt;br /&gt;
[13] A. Cangelosi, D. Parisi (Eds), ''Simulating the Evolution of Language'', Springer-Verlag, 2002.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B2%E3%83%BC%E3%83%A0%E3%81%AE%E8%A7%A3%E3%81%AE%E8%A8%88%E7%AE%97%E3%80%8B&amp;diff=5039</id>
		<title>《ゲームの解の計算》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B2%E3%83%BC%E3%83%A0%E3%81%AE%E8%A7%A3%E3%81%AE%E8%A8%88%E7%AE%97%E3%80%8B&amp;diff=5039"/>
		<updated>2007-07-16T14:42:49Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ゲームのかいのけいさん (computation of solutions of games) 】'''&lt;br /&gt;
&lt;br /&gt;
1. 2人ゼロ和ゲームのマックスミニ戦略の計算&lt;br /&gt;
&lt;br /&gt;
　次のような[[利得行列 (ゲームの)|利得行列]]をもつ[[2人ゼロ和ゲーム]]を考える. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[スタイル検討#ゲームの解の計算 (0079-a-g-11-1)|スタイル検討]]&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[プレイヤー]]1の[[混合戦略]]を&amp;lt;math&amp;gt;p = (p_1, p_2, \ldots, p_m)\, &amp;lt;/math&amp;gt;, プレイヤー2の混合戦略を&amp;lt;math&amp;gt;q = (q_1, q_2, \ldots, q_n)\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt; 0 \leq p_i, q_j \leq 1 \, &amp;lt;/math&amp;gt;,  &amp;lt;math&amp;gt;\textstyle \sum_{i=1}^{m} p_i = 1\, &amp;lt;/math&amp;gt;,   &amp;lt;math&amp;gt;\textstyle \sum_{j=1}^{n} q_j = 1\, &amp;lt;/math&amp;gt; とするとき, プレイヤー1の[[マックスミニ戦略]]は, 次の線形計画問題の最適解として得られ, 最適値が[[マックスミニ値]]となる.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
    \mbox{maximize}   &amp;amp; v \\&lt;br /&gt;
    \mbox{subject to} &amp;amp; a_{1j}p_1 + a_{2j}p_2 + \ldots + a_{mj}p_m \geq v  \  (j = 1, 2, \ldots, n), \\&lt;br /&gt;
                      &amp;amp; p_1 + p_2 + \ldots + p_m = 1,\;\;  p_1,  p_2,  \ldots, p_m \geq 0.&lt;br /&gt;
    \end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
プレイヤー2の[[ミニマックス戦略]]はこの問題の[[双対問題 (線形計画の)|双対問題]]を解いて求められる. 少なくとも一方のプレイヤーの[[純戦略]]が2個だけである場合には, マックスミニ戦略, ミニマックス戦略はより簡単に計算することができる. 例えば, &amp;lt;math&amp;gt;m=2\, &amp;lt;/math&amp;gt;とすると,  プレイヤー1のマックスミニ戦略は, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\max_{0 \leq p_1 \leq 1} \min&lt;br /&gt;
               \{a_{11}p_1 + a_{21}(1-p_1),  a_{12}p_1 + a_{22}(1-p_1), &lt;br /&gt;
                 \ldots ,  a_{1n}p_1 + a_{2n}(1-p_1) \}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の解となる. いま, 各jについて &amp;lt;math&amp;gt;a_{1j}p_1 + a_{2j}(1-p_1)\, &amp;lt;/math&amp;gt; のグラフを描き, &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個のグラフの最小の部分をたどるグラフ (図１(a)の太線) を描く. このグラフの最大値を与える&amp;lt;math&amp;gt;p_1\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;p^*\, &amp;lt;/math&amp;gt;とすると, プレイヤー1のマックスミニ戦略は&amp;lt;math&amp;gt;(p^*, 1-p^*)\, &amp;lt;/math&amp;gt;で与えられる. 図１(a)は&amp;lt;math&amp;gt;n=3\, &amp;lt;/math&amp;gt;の場合である. プレイヤー2については, &amp;lt;math&amp;gt;p^*\, &amp;lt;/math&amp;gt;を与える2つの戦略&amp;lt;math&amp;gt;j, j'\, &amp;lt;/math&amp;gt;について同様の計算を行ってミニマックス戦略を求めることができる. 詳しくは, 例えば [4] を参照. &lt;br /&gt;
&lt;br /&gt;
2. 非ゼロ和ゲームのナッシュ均衡の計算&lt;br /&gt;
&lt;br /&gt;
　次のような &amp;lt;math&amp;gt;2 \times 2\, &amp;lt;/math&amp;gt; の[[利得双行列 (ゲームの)|利得双行列]]をもつ2人[[非ゼロ和ゲーム]]を考える. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[スタイル検討#ゲームの解の計算 (0079-a-g-11-2)|スタイル検討]]&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
プレイヤー1, 2の混合戦略を各々 &amp;lt;math&amp;gt;(p, 1-p)\, &amp;lt;/math&amp;gt;,  &amp;lt;math&amp;gt;(q, 1-q)\, &amp;lt;/math&amp;gt;,   &amp;lt;math&amp;gt;0 \leq p, q \leq 1\, &amp;lt;/math&amp;gt;とする. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;A_1 \equiv a_{11}q+a_{12}(1-q),  A_2 \equiv a_{21}q+a_{22}(1-q) \, &amp;lt;/math&amp;gt; とおくと, プレイヤー1の利得の期待値 (期待利得) は &amp;lt;math&amp;gt;p A_1 + (1-p) A_2\, &amp;lt;/math&amp;gt; となるから, [[最適反応 (ゲーム理論における)|最適反応]]は &amp;lt;math&amp;gt;A_1 &amp;gt; A_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;p=1\, &amp;lt;/math&amp;gt; ,  &amp;lt;math&amp;gt;A_1 = A_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;0 \leq p \leq 1\, &amp;lt;/math&amp;gt; ,  &amp;lt;math&amp;gt;A_1 &amp;lt; A_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;p=0\, &amp;lt;/math&amp;gt; となる. 同様にプレイヤー2の最適反応は,  &amp;lt;math&amp;gt;B_1 = b_{11}p+b_{21}(1-p),  B_2 = b_{12}p+b_{22}(1-p)\, &amp;lt;/math&amp;gt; とおいて,  &amp;lt;math&amp;gt;B_1 &amp;gt; B_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;q=1\, &amp;lt;/math&amp;gt; ,  &amp;lt;math&amp;gt;B_1 = B_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;0 \leq q \leq 1 ,  B_1 &amp;lt; B_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;q=0\, &amp;lt;/math&amp;gt; となる. 従って, 両者の最適反応は, もし,   &amp;lt;math&amp;gt;a_{11}&amp;gt;a_{21},  a_{12}&amp;lt;a_{22},  b_{11}&amp;gt;b_{12},  b_{21}&amp;lt;b_{22}\, &amp;lt;/math&amp;gt; であれば, 図１(b) のように表現される. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;table&amp;gt;&amp;lt;tr&amp;gt;&amp;lt;td align=center&amp;gt;[[画像:0079-a-g-11fig.png|center|図１：2人ゲームのマックスミニ戦略およびナッシュ均衡の計算]]&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=center&amp;gt;図１：2人ゲームのマックスミニ戦略およびナッシュ均衡の計算&lt;br /&gt;
&amp;lt;/td&amp;gt;&amp;lt;/table&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　[[ナッシュ均衡]]は両者の最適反応の交点 (図１(b)の3つの交点) で与えられるから, この場合には, 純戦略に対応する &amp;lt;math&amp;gt;p=q=1\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;p=q=0\, &amp;lt;/math&amp;gt; および,  &amp;lt;math&amp;gt;A_1 = A_2\, &amp;lt;/math&amp;gt; かつ &amp;lt;math&amp;gt;B_1 = B_2\, &amp;lt;/math&amp;gt; を満たす混合戦略に対応する &amp;lt;math&amp;gt;p=(b_{22}-b_{21})/(b_{11}-b_{12} + b_{22}-b_{21})\, &amp;lt;/math&amp;gt; ,  &amp;lt;math&amp;gt;q=(a_{12}-a_{22})/(a_{21}-a_{11} + a_{12}-a_{22})\, &amp;lt;/math&amp;gt; の合計3通りのナッシュ均衡が存在する.   &amp;lt;math&amp;gt;a_{11}&amp;gt;a_{21},  a_{12}&amp;lt;a_{22},  b_{11}&amp;gt;b_{12},  b_{21}&amp;lt;b_{22}\, &amp;lt;/math&amp;gt;以外の場合など, 詳しくは, 例えば [4] を参照. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;2 \times 2\, &amp;lt;/math&amp;gt; よりも大きな利得行列をもつ2人非ゼロ和ゲームのナッシュ均衡を求める方法としては, [[シャープレイのラベル法|シャープレイ(L. S. Shapley)のラベル法]](Shapley's labelling method) [6] がある. &amp;lt;math&amp;gt;3\, &amp;lt;/math&amp;gt;人以上のプレイヤーからなる[[戦略形ゲーム]]においては, [[不動点アルゴリズム]]を用いて, ナッシュ均衡の近似値を計算することができる. [7] を参照. &lt;br /&gt;
&lt;br /&gt;
　[[展開形ゲーム]]における[[部分ゲーム完全均衡]], [[完全均衡]], [[逐次均衡]]などの計算については, [4] を参照. &lt;br /&gt;
&lt;br /&gt;
3. 提携形 (特性関数形) ゲームの解の計算&lt;br /&gt;
&lt;br /&gt;
　[[提携形ゲーム]]&amp;lt;math&amp;gt;(N, v)\, &amp;lt;/math&amp;gt;の[[コア]]の配分 &amp;lt;math&amp;gt;(x_i)_{i \in N }\, &amp;lt;/math&amp;gt;を計算するために, まず &amp;lt;math&amp;gt;2^n-1\, &amp;lt;/math&amp;gt; 本の制約式をもつ次の線形計画問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;を考える (&amp;lt;math&amp;gt;\textstyle |N|=n,  x(S)=\sum_{i \in S} x_i \, &amp;lt;/math&amp;gt;). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{lll}&lt;br /&gt;
    \mbox{minimize}   &amp;amp; e \\&lt;br /&gt;
    \mbox{subject to} &amp;amp; x(S) + e \geq v(S) &amp;amp;&lt;br /&gt;
                        (S \subset N, \ S \neq N, \emptyset), \\&lt;br /&gt;
                      &amp;amp; x(N) = v(N). &lt;br /&gt;
    \end{array}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;の最適解において,   &amp;lt;math&amp;gt;e \leq 0\, &amp;lt;/math&amp;gt; となっているならば, ゲーム&amp;lt;math&amp;gt;(N, v)\, &amp;lt;/math&amp;gt;のコアは空集合ではなく,  &amp;lt;math&amp;gt;e \leq 0\, &amp;lt;/math&amp;gt; を満たす実行可能解すべてからなる集合がコアとなる. また,  コアが空であろうと非空であろうと, 問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;の最適解の全体はゲーム&amp;lt;math&amp;gt;(N, v)\, \, &amp;lt;/math&amp;gt;の[[最小コア (ゲーム理論の)|最小コア]]になる. &lt;br /&gt;
&lt;br /&gt;
　[[仁]]は, 線形計画問題を繰り返し解く[[コペロウィッツのアルゴリズム]] (Kopelowitz' algorithm) [2] によって求められる. まず,  問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;の最適解における&amp;lt;math&amp;gt;e\, &amp;lt;/math&amp;gt;の値を&amp;lt;math&amp;gt;e_1\, &amp;lt;/math&amp;gt;とする. もしも最適解が唯一でない場合は, すべての最適解を求め, 不等式制約条件がその全最適解において等号で成立しているような&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の族を&amp;lt;math&amp;gt;A_1\, &amp;lt;/math&amp;gt;とおく. さらに, &amp;lt;math&amp;gt;A_1\, &amp;lt;/math&amp;gt;に含まれるすべての&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;に対して問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;の制約式 &amp;lt;math&amp;gt;x(S) + e \geq v(S)\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;x(S) + e_1 = v(S)\, &amp;lt;/math&amp;gt; に置き換えて新たな問題&amp;lt;math&amp;gt;P_2\, &amp;lt;/math&amp;gt;をつくり, その最適解を求める. このプロセスを繰り返し, あるステップで, 最適解が唯一であればそれが仁の配分である. このアルゴリズムは&amp;lt;math&amp;gt;n-1\, &amp;lt;/math&amp;gt;回以内の繰り返しで必ず終了する. ただし, 1回の繰り返しの中での計算量は膨大になることがある. 仁のより効率的な計算方法については, [1], [5] を参照. &lt;br /&gt;
&lt;br /&gt;
　[[シャープレイ値]]の計算方法については, [3] を参照. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] G. Bruyneel, &amp;quot;Computation of the Nucleolus of a Game by Means of Minimal Balanced Sets,&amp;quot; ''Operations Research Verfahren'', '''34''' (1979), 35-51. &lt;br /&gt;
&lt;br /&gt;
[2] A. Kopelowitz, &amp;quot;Computation of the Kernels of Simple Games and the Nucleolus of n-Person Games,&amp;quot; &amp;quot;Research Program in Game Theory and Mathematical Economics&amp;quot;, RM 31, The Hebrew University of Jerusalem, 1967. &lt;br /&gt;
&lt;br /&gt;
[3] 武藤滋夫, 小野理恵, 「投票システムのゲーム分析」, 日科技連出版社,  1998. &lt;br /&gt;
&lt;br /&gt;
[4] 岡田章, 「ゲーム理論」, 有斐閣, 1996. &lt;br /&gt;
&lt;br /&gt;
[5] J. K. Sankaran, &amp;quot;On Finding the Nucleolus of an n-Person Cooperative Game,&amp;quot; ''International Journal of Game Theory'', '''19''' (1991), 329-338. &lt;br /&gt;
&lt;br /&gt;
[6] L. S. Shapley, &amp;quot;A Note on the Lemke-Howson Algorithm,&amp;quot; ''Mathematical Programming Study'', '''1''' (1974), 175-189. &lt;br /&gt;
&lt;br /&gt;
[7] Z. -F. Yang, ''Computing Equilibria and Fixed Points'', Kluwer Academic Publishers, 1999.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B2%E3%83%BC%E3%83%A0%E3%81%AE%E8%A7%A3%E3%81%AE%E8%A8%88%E7%AE%97%E3%80%8B&amp;diff=5038</id>
		<title>《ゲームの解の計算》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B2%E3%83%BC%E3%83%A0%E3%81%AE%E8%A7%A3%E3%81%AE%E8%A8%88%E7%AE%97%E3%80%8B&amp;diff=5038"/>
		<updated>2007-07-16T14:41:07Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ゲームのかいのけいさん (computation of solutions of games) 】'''&lt;br /&gt;
&lt;br /&gt;
1. 2人ゼロ和ゲームのマックスミニ戦略の計算&lt;br /&gt;
&lt;br /&gt;
　次のような[[利得行列 (ゲームの)|利得行列]]をもつ[[2人ゼロ和ゲーム]]を考える. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[スタイル検討#ゲームの解の計算 (0079-a-g-11-1)|スタイル検討]]&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[プレイヤー]]1の[[混合戦略]]を&amp;lt;math&amp;gt;p = (p_1, p_2, \ldots, p_m)\, &amp;lt;/math&amp;gt;, プレイヤー2の混合戦略を&amp;lt;math&amp;gt;q = (q_1, q_2, \ldots, q_n)\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt; 0 \leq p_i, q_j \leq 1 \, &amp;lt;/math&amp;gt;,  &amp;lt;math&amp;gt;\textstyle \sum_{i=1}^{m} p_i = 1\, &amp;lt;/math&amp;gt;,   &amp;lt;math&amp;gt;\textstyle \sum_{j=1}^{n} q_j = 1\, &amp;lt;/math&amp;gt; とするとき, プレイヤー1の[[マックスミニ戦略]]は, 次の線形計画問題の最適解として得られ, 最適値が[[マックスミニ値]]となる.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
    \mbox{maximize}   &amp;amp; v \\&lt;br /&gt;
    \mbox{subject to} &amp;amp; a_{1j}p_1 + a_{2j}p_2 + \ldots + a_{mj}p_m \geq v  \  (j = 1, 2, \ldots, n), \\&lt;br /&gt;
                      &amp;amp; p_1 + p_2 + \ldots + p_m = 1,\;\;  p_1,  p_2,  \ldots, p_m \geq 0.&lt;br /&gt;
    \end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
プレイヤー2の[[ミニマックス戦略]]はこの問題の[[双対問題 (線形計画の)|双対問題]]を解いて求められる. 少なくとも一方のプレイヤーの[[純戦略]]が2個だけである場合には, マックスミニ戦略, ミニマックス戦略はより簡単に計算することができる. 例えば, &amp;lt;math&amp;gt;m=2\, &amp;lt;/math&amp;gt;とすると,  プレイヤー1のマックスミニ戦略は, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\max_{0 \leq p_1 \leq 1} \min&lt;br /&gt;
               \{a_{11}p_1 + a_{21}(1-p_1),  a_{12}p_1 + a_{22}(1-p_1), &lt;br /&gt;
                 \ldots ,  a_{1n}p_1 + a_{2n}(1-p_1) \}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の解となる. いま, 各jについて &amp;lt;math&amp;gt;a_{1j}p_1 + a_{2j}(1-p_1)\, &amp;lt;/math&amp;gt; のグラフを描き, &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個のグラフの最小の部分をたどるグラフ (図１(a)の太線) を描く. このグラフの最大値を与える&amp;lt;math&amp;gt;p_1\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;p^*\, &amp;lt;/math&amp;gt;とすると, プレイヤー1のマックスミニ戦略は&amp;lt;math&amp;gt;(p^*, 1-p^*)\, &amp;lt;/math&amp;gt;で与えられる. 図１(a)は&amp;lt;math&amp;gt;n=3\, &amp;lt;/math&amp;gt;の場合である. プレイヤー2については, &amp;lt;math&amp;gt;p^*\, &amp;lt;/math&amp;gt;を与える2つの戦略&amp;lt;math&amp;gt;j, j'\, &amp;lt;/math&amp;gt;について同様の計算を行ってミニマックス戦略を求めることができる. 詳しくは, 例えば [4] を参照. &lt;br /&gt;
&lt;br /&gt;
2. 非ゼロ和ゲームのナッシュ均衡の計算&lt;br /&gt;
&lt;br /&gt;
　次のような &amp;lt;math&amp;gt;2 \times 2\, &amp;lt;/math&amp;gt; の[[利得双行列 (ゲームの)|利得双行列]]をもつ2人[[非ゼロ和ゲーム]]を考える. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[スタイル検討#ゲームの解の計算 (0079-a-g-11-2)|スタイル検討]]&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
プレイヤー1, 2の混合戦略を各々 &amp;lt;math&amp;gt;(p, 1-p)\, &amp;lt;/math&amp;gt;,  &amp;lt;math&amp;gt;(q, 1-q)\, &amp;lt;/math&amp;gt;,   &amp;lt;math&amp;gt;0 \leq p, q \leq 1\, &amp;lt;/math&amp;gt;とする. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;A_1 \equiv a_{11}q+a_{12}(1-q),  A_2 \equiv a_{21}q+a_{22}(1-q) \, &amp;lt;/math&amp;gt; とおくと, プレイヤー1の利得の期待値 (期待利得) は &amp;lt;math&amp;gt;p A_1 + (1-p) A_2\, &amp;lt;/math&amp;gt; となるから, [[最適反応 (ゲーム理論における)|最適反応]]は &amp;lt;math&amp;gt;A_1 &amp;gt; A_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;p=1\, &amp;lt;/math&amp;gt; ,  &amp;lt;math&amp;gt;A_1 = A_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;0 \leq p \leq 1\, &amp;lt;/math&amp;gt; ,  &amp;lt;math&amp;gt;A_1 &amp;lt; A_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;p=0\, &amp;lt;/math&amp;gt; となる. 同様にプレイヤー2の最適反応は,  &amp;lt;math&amp;gt;B_1 = b_{11}p+b_{21}(1-p),  B_2 = b_{12}p+b_{22}(1-p)\, &amp;lt;/math&amp;gt; とおいて,  &amp;lt;math&amp;gt;B_1 &amp;gt; B_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;q=1\, &amp;lt;/math&amp;gt; ,  &amp;lt;math&amp;gt;B_1 = B_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;0 \leq q \leq 1 ,  B_1 &amp;lt; B_2\, &amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;q=0\, &amp;lt;/math&amp;gt; となる. 従って, 両者の最適反応は, もし,   &amp;lt;math&amp;gt;a_{11}&amp;gt;a_{21},  a_{12}&amp;lt;a_{22},  b_{11}&amp;gt;b_{12},  b_{21}&amp;lt;b_{22}\, &amp;lt;/math&amp;gt; であれば, 図１(b) のように表現される. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;table&amp;gt;&amp;lt;tr&amp;gt;&amp;lt;td align=center&amp;gt;[[画像:0079-a-g-11fig.png|center|図１：2人ゲームのマックスミニ戦略およびナッシュ均衡の計算]]&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=center&amp;gt;図１：2人ゲームのマックスミニ戦略およびナッシュ均衡の計算&lt;br /&gt;
&amp;lt;/td&amp;gt;&amp;lt;/table&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　[[ナッシュ均衡]]は両者の最適反応の交点 (図１(b)の3つの交点) で与えられるから, この場合には, 純戦略に対応する &amp;lt;math&amp;gt;p=q=1\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;p=q=0\, &amp;lt;/math&amp;gt; および,  &amp;lt;math&amp;gt;A_1 = A_2\, &amp;lt;/math&amp;gt; かつ &amp;lt;math&amp;gt;B_1 = B_2\, &amp;lt;/math&amp;gt; を満たす混合戦略に対応する &amp;lt;math&amp;gt;p=(b_{22}-b_{21})/(b_{11}-b_{12} + b_{22}-b_{21})\, &amp;lt;/math&amp;gt; ,  &amp;lt;math&amp;gt;q=(a_{12}-a_{22})/(a_{21}-a_{11} + a_{12}-a_{22})\, &amp;lt;/math&amp;gt; の合計3通りのナッシュ均衡が存在する.   &amp;lt;math&amp;gt;a_{11}&amp;gt;a_{21},  a_{12}&amp;lt;a_{22},  b_{11}&amp;gt;b_{12},  b_{21}&amp;lt;b_{22}\, &amp;lt;/math&amp;gt;以外の場合など, 詳しくは, 例えば [4] を参照. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;2 \times 2\, &amp;lt;/math&amp;gt; よりも大きな利得行列をもつ2人非ゼロ和ゲームのナッシュ均衡を求める方法としては, [[シャープレイのラベル法|シャープレイ(L. S. Shapley)のラベル法]](Shapley's labelling method) [6] がある. &amp;lt;math&amp;gt;3\, &amp;lt;/math&amp;gt;人以上のプレイヤーからなる[[戦略形ゲーム]]においては, [[不動点アルゴリズム]]を用いて, ナッシュ均衡の近似値を計算することができる. [7] を参照. &lt;br /&gt;
&lt;br /&gt;
　[[展開形ゲーム]]における[[部分ゲーム完全均衡]], [[完全均衡]], [[逐次均衡]]などの計算については, [4] を参照. &lt;br /&gt;
&lt;br /&gt;
3. 提携形 (特性関数形) ゲームの解の計算&lt;br /&gt;
&lt;br /&gt;
　[[提携形ゲーム]]&amp;lt;math&amp;gt;(N, v)\, &amp;lt;/math&amp;gt;の[[コア]]の配分 &amp;lt;math&amp;gt;(x_i)_{i \in N }\, &amp;lt;/math&amp;gt;を計算するために, まず &amp;lt;math&amp;gt;2^n-1\, &amp;lt;/math&amp;gt; 本の制約式をもつ次の線形計画問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;を考える (&amp;lt;math&amp;gt;\textstyle |N|=n,  x(S)=\sum_{i \in S} x_i \, &amp;lt;/math&amp;gt;). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{lll}&lt;br /&gt;
    \mbox{minimize}   &amp;amp; e \\&lt;br /&gt;
    \mbox{subject to} &amp;amp; x(S) + e \geq v(S) &amp;amp;&lt;br /&gt;
                        (S \subset N, \ S \neq N, \emptyset), \\&lt;br /&gt;
                      &amp;amp; x(N) = v(N). &lt;br /&gt;
    \end{array}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;の最適解において,   &amp;lt;math&amp;gt;e \leq 0\, &amp;lt;/math&amp;gt; となっているならば, ゲーム&amp;lt;math&amp;gt;(N, v)\, &amp;lt;/math&amp;gt;のコアは空集合ではなく,  &amp;lt;math&amp;gt;e \leq 0\, &amp;lt;/math&amp;gt; を満たす実行可能解すべてからなる集合がコアとなる. また,  コアが空であろうと非空であろうと, 問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;の最適解の全体はゲーム&amp;lt;math&amp;gt;(N, v)\, \, &amp;lt;/math&amp;gt;の[[最小コア (ゲーム理論の)|最小コア]]になる. &lt;br /&gt;
&lt;br /&gt;
　[[仁]]は, 線形計画問題を繰り返し解く[[コペロウィッツ (A. Kopelowitz)のアルゴリズム]] (Kopelowitz' algorithm) [2] によって求められる. まず,  問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;の最適解における&amp;lt;math&amp;gt;e\, &amp;lt;/math&amp;gt;の値を&amp;lt;math&amp;gt;e_1\, &amp;lt;/math&amp;gt;とする. もしも最適解が唯一でない場合は, すべての最適解を求め, 不等式制約条件がその全最適解において等号で成立しているような&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の族を&amp;lt;math&amp;gt;A_1\, &amp;lt;/math&amp;gt;とおく. さらに, &amp;lt;math&amp;gt;A_1\, &amp;lt;/math&amp;gt;に含まれるすべての&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;に対して問題&amp;lt;math&amp;gt;P_1\, &amp;lt;/math&amp;gt;の制約式 &amp;lt;math&amp;gt;x(S) + e \geq v(S)\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;x(S) + e_1 = v(S)\, &amp;lt;/math&amp;gt; に置き換えて新たな問題&amp;lt;math&amp;gt;P_2\, &amp;lt;/math&amp;gt;をつくり, その最適解を求める. このプロセスを繰り返し, あるステップで, 最適解が唯一であればそれが仁の配分である. このアルゴリズムは&amp;lt;math&amp;gt;n-1\, &amp;lt;/math&amp;gt;回以内の繰り返しで必ず終了する. ただし, 1回の繰り返しの中での計算量は膨大になることがある. 仁のより効率的な計算方法については, [1], [5] を参照. &lt;br /&gt;
&lt;br /&gt;
　[[シャープレイ値]]の計算方法については, [3] を参照. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] G. Bruyneel, &amp;quot;Computation of the Nucleolus of a Game by Means of Minimal Balanced Sets,&amp;quot; ''Operations Research Verfahren'', '''34''' (1979), 35-51. &lt;br /&gt;
&lt;br /&gt;
[2] A. Kopelowitz, &amp;quot;Computation of the Kernels of Simple Games and the Nucleolus of n-Person Games,&amp;quot; &amp;quot;Research Program in Game Theory and Mathematical Economics&amp;quot;, RM 31, The Hebrew University of Jerusalem, 1967. &lt;br /&gt;
&lt;br /&gt;
[3] 武藤滋夫, 小野理恵, 「投票システムのゲーム分析」, 日科技連出版社,  1998. &lt;br /&gt;
&lt;br /&gt;
[4] 岡田章, 「ゲーム理論」, 有斐閣, 1996. &lt;br /&gt;
&lt;br /&gt;
[5] J. K. Sankaran, &amp;quot;On Finding the Nucleolus of an n-Person Cooperative Game,&amp;quot; ''International Journal of Game Theory'', '''19''' (1991), 329-338. &lt;br /&gt;
&lt;br /&gt;
[6] L. S. Shapley, &amp;quot;A Note on the Lemke-Howson Algorithm,&amp;quot; ''Mathematical Programming Study'', '''1''' (1974), 175-189. &lt;br /&gt;
&lt;br /&gt;
[7] Z. -F. Yang, ''Computing Equilibria and Fixed Points'', Kluwer Academic Publishers, 1999.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B2%E3%83%BC%E3%83%A0%E7%90%86%E8%AB%96%E3%81%AE%E5%BF%9C%E7%94%A8%E3%80%8B&amp;diff=5037</id>
		<title>《ゲーム理論の応用》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B2%E3%83%BC%E3%83%A0%E7%90%86%E8%AB%96%E3%81%AE%E5%BF%9C%E7%94%A8%E3%80%8B&amp;diff=5037"/>
		<updated>2007-07-16T14:36:29Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【げーむりろんのおうよう (applications of game theory to OR) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[ゲーム理論]]の応用分野は経済学・社会学・政治学・生物学と多岐にわたっているが, 現在もっとも応用が進んでいるのは経済学であると言ってよい. 多くの経済現象を個人の効用最大化に還元して説明しようとする現在の経済理論の方法論は, まさに非協力ゲームと共通している. このため経済学において, 寡占・独占の理論・情報経済学・環境経済学・国際経済学など多くの分野の基礎理論が[[非協力ゲーム理論]]によって説明されている. &lt;br /&gt;
&lt;br /&gt;
　社会・経済現象の描写や叙述などゲーム理論の説明的な面をゲーム理論の応用の中心と考える経済学に比して, 現実の問題をモデル化し意思決定者に対して問題解決のための有益な情報を提供することが目的であるオペレーションズリサーチでは, 「良い解を薦める」というゲーム理論の規範的な面も重視されている. したがって, 規範的な面を持つ[[協力ゲーム理論]]もORでは広く応用されている. 以下, 経済学よりもORの文献等でよく見られるゲーム理論の応用を中心として述べる. &lt;br /&gt;
&lt;br /&gt;
　ゲーム理論の応用としてかなり早い時期に研究が進められたものに[[市場ゲーム]] (market game) がある. 市場ゲームとは各個人が初期財としていくつかの財を保有し, それぞれが財から得られる効用の最大化を求めて財の交換を行うという交換経済を表現した協力ゲームである. もっとも典型的な市場ゲームは細かく分けることのできる分割財の取引を扱う譲渡可能効用を持つ市場ゲームで, この時の[[特性関数 (ゲーム理論の)|特性関数]]の値は, 提携に属する各個人の利得の和が最大になるように財が配分されたときの利得の和の値である. (譲渡可能効用を持たない市場ゲームの特性関数は各提携において実現可能な財の配分の集合である. ) 効用関数における通常の仮定のもとで, このゲームには[[コア]]が存在する. 市場ゲームは財に対する価格を導入することで, 理論経済学における交換経済モデルとして表現できる. この時, 参加する個人を増加(正確には初期保有財など特性が同じである個人を2倍, 3倍, . . . と複製)させたときに, [[競争均衡]] (competitive equilibrium) の配分の集合に収束することが知られている. これを[[極限定理 (ゲームのコアの)|極限定理]] (limit theorem of core) と呼ぶ. &lt;br /&gt;
&lt;br /&gt;
　市場ゲームには家などのように分割できない非分割財を扱った非分割財の交換市場ゲームや, 売り手と買い手が分かれている[[割当て市場ゲーム]] (assignment game) などがある. &lt;br /&gt;
&lt;br /&gt;
　譲渡可能効用を持つ市場ゲームには[[線形生産ゲーム]] (linear production game) と呼ばれるものがある. [3] を参照. これは各プレイヤーを生産者と考え, 各提携は最大限それに属するプレイヤーの持つ財の合計まで利用できると考えて, 線形計画法の生産計画問題で得られる最適値をその提携の特性関数の値と考えた市場ゲームである. 線形生産ゲームでは全員提携に関する線形計画問題の双対問題の解がコアとなる. また線形生産ゲームでは, プレイヤーの有限の複製でコアは競争均衡の配分と一致する. 市場ゲームについて詳しくは [4] を参照. &lt;br /&gt;
&lt;br /&gt;
　[[費用分担ゲーム]] (cost allocation game) は, 何人かのプレイヤーが共同事業を行う場合に, 各プレイヤーがどれだけの費用を分担すべきかを考えるゲームである. 各提携の特性関数の値を, 各提携が単独で事業を行った場合の費用と考える場合と, 各プレイヤーが単独で事業を行った場合の和と提携で行った場合との費用の差として考える場合(節約ゲーム)とがある. 水資源共同開発における費用分担, 大学内での電話料金の分担, 飛行場の滑走路補修費用の機種別分担などの問題を, 仁やシャープレイ値を用いて分析した例が知られている. &lt;br /&gt;
&lt;br /&gt;
　費用分担ゲームの中でも, 各プレイヤーがネットワーク上のグラフ上の点に存在し, グラフ上に費用最小木を張る時に, 各プレイヤーがいかに費用を配分するかの費用分担ゲームは最小木ゲームと呼ばれる. また同様に巡回セールスマン問題で各プレイヤーがグラフ上の点に位置すると考えたときに, 費用をいかに分担するかというゲームは巡回セールスマンゲームと呼ばれる. これらORで良く知られている最適化手法をゲームの状況に拡大した理論は多くあり, 他にも[[探索ゲーム]]や最少費用流ゲームなどが知られている. 線形生産ゲームもその1 つである. &lt;br /&gt;
&lt;br /&gt;
　[[投票ゲーム]] (voting game) は, 議案の可決・否決や候補者の当選・落選など, 「2 つの結果に対する投票」を表現した協力ゲームである. プレイヤーの提携が, 結果を左右することができる場合にその提携を勝利提携と呼び, そうでないものを敗北提携と呼ぶ. 投票ゲームは, 勝利提携に1 , 敗北提携に0 を与えるような[[提携形ゲーム]]としても表現できる. 投票ゲームにおいて投票者の持つパワーを表現する指数を[[パワー指数]]と呼ぶ. シャープレイ・シュービック指数やバンザフ指数などの指数が考えられている. [2] を参照. &lt;br /&gt;
&lt;br /&gt;
　[[仲裁ゲーム]] (arbitration game) は, 報酬契約などの2 人の交渉に仲裁者が存在しているゲームである. まず仲裁者が双方からどのような要求を出させ, どの場合にどのように仲裁するかを決める. 交渉する2人は要求を提出し, 決められたルールに従って利得の受け取り, 支払いを行う. [5] を参照. &lt;br /&gt;
&lt;br /&gt;
　[[入札ゲーム]] (auction game) は, 各プレイヤーが入札対象に持つ事前価値について, その確率分布の情報が事前にプレイヤー間で共有されている状況で, 自分の事後の期待利益が最大になるように入札を行うような非協力ゲームである. プレイヤーの持つ価値がプレイヤーごとに独立で, かつ各プレイヤーはリスク中立である, という仮定をおいた場合には, 最も代表的な入札方法である最高の価格を付けたプレイヤーがその価格で落札するファーストプライス競売と, 最高の価格を付けたプレイヤーが2 番目に高い価格で落札するセカンドプライス競売が, 主催者にもたらす期待利益は等価であることが知られている. これを利潤等価定理という. [1] を参照. &lt;br /&gt;
&lt;br /&gt;
　このようにゲーム理論の適用例は多岐にわたっているが, 最近では, スポーツへの適用も盛んになってきている. たとえば, サッカーのペナルティー・キックにおけるキッカーとゴールキーパーの実際の行動がゲーム理論の均衡概念による理論値ときわめて類似しているという興味ある結果も報告されている [1]. &lt;br /&gt;
&lt;br /&gt;
　ゲーム理論の応用例については, 本稿中に挙げたもののほか,  [2], [3], [4], [5], [6], [9] などを参照していただきたい. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] P. A. Chiappori, S. Levitt and T. Groseclose, &amp;quot;Testing Mixed-Strategy Equilibria When Playe.rs are Heterogeneous: The Case of Penalty Kicks in Soccer&amp;quot;, ''American Economic Review'', '''92''' (2002), 1138-1151.&lt;br /&gt;
&lt;br /&gt;
[2] A. Dixit and B. Nalebuff, ''Thinking Strategically'', N. W. Norton, 1991. 菅野隆, 嶋津祐一, 『戦略的思考とは何か』, TBSブリタニカ, 1991.&lt;br /&gt;
&lt;br /&gt;
[3] 船木由喜彦, 『エコノミックゲームセオリー』, サイエンス社, 2001.&lt;br /&gt;
&lt;br /&gt;
[4] 今井晴雄, 岡田章, 『ゲーム理論の新展開』, 勁草書房, 2002.&lt;br /&gt;
&lt;br /&gt;
[5] 今井晴雄, 岡田章, 『ゲーム理論の応用』, 勁草書房, 2005.&lt;br /&gt;
&lt;br /&gt;
[6] 梶井厚志, 松井彰彦, 『ミクロ経済学 戦略的アプローチ』, 日本評論社, 2000.&lt;br /&gt;
&lt;br /&gt;
[7] P. Milgrom and  R. J. Weber, &amp;quot;The Theory of Auctions and Competitive Bidding&amp;quot;, ''Econometrica'', '''50''', (1982), 1089-1122. &lt;br /&gt;
&lt;br /&gt;
[8] 武藤滋夫, 小野理恵, 「投票システムのゲーム分析」, 日科技連出版社, 1998. &lt;br /&gt;
&lt;br /&gt;
[9] 中山幹夫, 武藤滋夫, 船木由喜彦, 『ゲーム理論で解く』, 有斐閣, 2000.&lt;br /&gt;
&lt;br /&gt;
[10] G. Owen, &amp;quot;On the Core of Linear Production Games&amp;quot;, ''Mathematical Programming'', '''9''', (1975), 358-370. &lt;br /&gt;
&lt;br /&gt;
[11] 鈴木光男, 武藤滋夫, 『協力ゲームの理論』, 東京大学出版会, 1985. &lt;br /&gt;
&lt;br /&gt;
[12] D. -Z. Zeng, S. Nakamura  and T. Ibaraki, &amp;quot;Double-offer Arbitration,&amp;quot; ''Mathematical Social Sciences'', '''31''', (1996), 147-170.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%8F%90%E6%90%BA%E5%BD%A2%E3%82%B2%E3%83%BC%E3%83%A0%E3%80%8B&amp;diff=5036</id>
		<title>《提携形ゲーム》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%8F%90%E6%90%BA%E5%BD%A2%E3%82%B2%E3%83%BC%E3%83%A0%E3%80%8B&amp;diff=5036"/>
		<updated>2007-07-16T14:23:02Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ていけいけいげーむ (game in coalitional form) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[提携形ゲーム]] (game in coalitional form) は協力ゲームの表現形式の一つであり, プレイヤー集合&amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;と, プレイヤーが[[提携]] (coalition) を形成し共同行動をとる際に実現可能な結果を表す[[特性関数 (ゲーム理論の)|特性関数]] (characteristic function) &amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;の組&amp;lt;math&amp;gt;(N, v)\, &amp;lt;/math&amp;gt;で表わされる. このために提携形ゲームは[[特性関数形ゲーム]] (game in characteristic function form) とよばれることもある. 特性関数の値は, 提携がそのメンバーだけで実現可能な利得の総和 (実数値) で表される場合 ([[譲渡可能効用]]を持つゲーム, game with transferable utility, TU-game) と, 提携の各メンバーの実現可能な利得ベクトルの集合で表される場合 (譲渡可能効用を持たないゲーム, game without transferable utility, NTU-game) がある. 譲渡可能効用を持つゲームでは, 共同行動の利害を調整するために貨幣などの媒介物による利得の[[別払い]] (sidepayment) が必要となる. 譲渡可能効用を持たないゲームの詳細については [11] を参照. &lt;br /&gt;
&lt;br /&gt;
　提携形ゲーム&amp;lt;math&amp;gt;(N, v)\, &amp;lt;/math&amp;gt;における基本的な問題は,  プレイヤー間の協力の結果, (1) いかなる提携が形成され, (2) 提携のメンバーの間で利得がどのように分配されるか, である. 協力に関する交渉の結果, 各プレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;に最終的に分配される利得&amp;lt;math&amp;gt;x_i\, &amp;lt;/math&amp;gt;から成るベクトル&amp;lt;math&amp;gt;x=(x_1, x_2, \ldots, x_n)\, &amp;lt;/math&amp;gt;を利得ベクトルとよび, さまざまな合理性の基準により,  結果として到達されると考えられる利得ベクトルの集合を提携形ゲームの解とよぶ. &lt;br /&gt;
&lt;br /&gt;
　[[優加法性 (ゲーム理論における)|優加法性]] (superadditivity) をみたすゲームにおいてはプレイヤー全体による提携Nが形成されると考えられるので&amp;lt;math&amp;gt;v(N)\, &amp;lt;/math&amp;gt;の値をどのようにプレイヤー間で分配すべきかが問題となる. このとき, ゲームの解の基本的な条件としては[[全体合理性]] (total group rationality) と[[個人合理性]] (individual rationality) の2つがあげられる. 前者は, 利得ベクトルが, プレイヤーが協力して実現できる実現可能集合において[[パレート最適]] (Pareto optimum) であることを要請し, 後者はゲームに参加して協力することの結果が, 単独で行動するよりも悪くならないことを要請している. 全体合理性をみたす利得ベクトルを[[準配分]] (preimputation) とよび, 全体合理性と個人合理性の両方をみたす利得ベクトルを[[配分]] (imputation)とよぶ. &lt;br /&gt;
&lt;br /&gt;
　提携形ゲームの解で, 経済分析や費用分担問題などの応用も多く, よく知られているのは[[コア]] (core) である. コアは常に存在するとは限らないが, 存在のための必要十分条件がボンダレーヴァ (O. N. Bondareva) やシャープレイ (L. S. Shapley) によって研究されている. 特に, 市場経済をゲームとして定式化した[[市場ゲーム]]については多くの研究があり, [[競争均衡]]がコアに含まれることが知られている. また, 非分割財市場ゲームなどの種々の割当て市場ゲームや[[投票ゲーム]], [[費用分担ゲーム]]などにおいても, コアは分配案の安定性を示す重要な概念となっている. &lt;br /&gt;
&lt;br /&gt;
　コアと同様に [[支配 (配分の)|支配]] (domination) 関係によって定義された解として知られているのはフォンノイマン (J. von Neumann) とモルゲンシュテルン (O. Morgenstern) によって提唱された[[安定集合]] (stable set) である [12]. 安定集合は[[フォンノイマン・モルゲンシュテルン解]] (von Neumann-Morgenstern solution) とよばれることもある. 安定集合は存在しない場合もあるし, 複数存在する場合もあるが, 存在すればコアを含む. また, コア自身が安定集合であれば, コア以外に安定集合は存在しない. &lt;br /&gt;
&lt;br /&gt;
　一方, 提携構造を考慮に入れた特性関数を基に始まった一連の研究があり, それらのゲームの解としては[[交渉集合]] (bargaining set) , [[カーネル (ゲーム理論における)|カーネル]] (kernel), [[仁]] (nucleolus) がある. 交渉集合はオーマン (R. J. Aumann) とマシュラー (M. Maschler) によって異議と逆異議を用いて定義された解であり, 常に存在し, コア, カーネル, 仁を含んでいる [2]. カーネルと仁は提携のもつ利得ベクトルへの不満 (超過要求) に基づいて定義された解である. カーネルはデービス (M. Davis) とマシュラーにより導入され [4], 仁はシュマイドラー (D. Schmidler) により導入された [8]. カーネルと仁はともに常に存在し, 仁はカーネルと[[最小コア (ゲーム理論の)|最小コア]] (least core) の共通部分に含まれている. 仁は常にただ1つの配分から成り, その計算法についてもいろいろな研究がなされている. 破産問題においては, ユダヤ教の教典かつ律法書であるタルムード (Talmud) に1500年前に記述された分配方法とカーネルの与える分配が一致するという興味深い結果が知られている [3]. カーネルと仁は配分の集合を基に, 定義されているが, 準配分の集合において同等の定式化を行うと, 準カーネル, 準仁などの概念が導かれる. これらの解の性質については [1]の18章にまとめられている. &lt;br /&gt;
&lt;br /&gt;
　提携形ゲームにおいて, プレイヤーがそのゲームに参加する場合のゲームの事前評価の値をゲームの値という. ゲームの値の概念の中で最もよく知られたものは[[シャープレイ値]] (Shapley value) である [9] . シャープレイ値は全体合理性, 対称性, 加法性, ナルプレイヤーのゼロ評価の４公理をみたす唯一の値 (ゲームの関数) として与えられる. シャープレイ値の応用の1つは[[投票ゲーム]]への適用である. シャープレイ・シュービック指数と呼ばれ, 各投票者の影響力を示す[[パワー指数]]の1つとして広く用いられている. &lt;br /&gt;
&lt;br /&gt;
　提携形ゲームにはこのように多数の解概念が提唱されているが, それらの解概念の共通点や差異を調べるためにいろいろなゲームのクラスにおいて, 解の間の幾何学的関係が研究されている. [[凸ゲーム]] (convex game) のクラスにおいては, 交渉集合がコアおよび安定集合と一致し, シャープレイ値はコアの重心になる. また, カーネルは仁と一致することが知られている. 凸ゲームを含む広いゲームのクラスや他のゲームのクラスにおける解の関係については [5] を参照されたい. &lt;br /&gt;
&lt;br /&gt;
　近年, 公理化のアプローチを多くの提携形ゲームの解概念に用い, 統一的な公理(整合性公理)で解の性質を解明しようとする研究が進んでいる. ある状況 (ゲーム) で解の与える利得分配と, プレイヤー数名が解の与える利得を持ってそのゲームから退出し, 残された状況 (縮小ゲーム) での解の与える利得分配を比較する. 整合性公理は, この両方の状況での解の与える利得分配が一致することを要請している. このとき, 残されたプレイヤーへの退出プレイヤーの協力の形態により縮小ゲームの構造が異なり, この縮小ゲームの差異を基に, コア, 準仁, 準カーネル, シャープレイ値などの整合性公理による公理化が研究されている. この分野に関しては例えば [6] を参照. &lt;br /&gt;
&lt;br /&gt;
　なお, 提携形ゲーム全般の詳しい解説は [10], [7] などを参照されたい. また, [1] のいくつかの章には, 提携形ゲームに関するトピックがテーマごとに詳細にまとめられており参考になる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. J. Aumann and S. Hart, eds., ''Handbook of Game Theory Volume I, Volume II'', North-Holland, 1992, 1994. &lt;br /&gt;
&lt;br /&gt;
[2] R. J. Aumann and M. Maschler, &amp;quot;The Bargaining Set for Cooperative Games,&amp;quot; in ''Advances in Game Theory'', M. Dresher, L. S. Shapley and A. W. Tucker, eds., Princeton University Press, 1964.&lt;br /&gt;
&lt;br /&gt;
[3] R. J. Aumann and M. Maschler, &amp;quot;Game Theoretic Analysis of a Bankruptcy Problem,&amp;quot; ''Journal of Economic Theory'', '''36''' (1985), 195-213. &lt;br /&gt;
&lt;br /&gt;
[4] M. Davis and M. Maschler, &amp;quot;The Kernel of a Cooperative Game,&amp;quot; ''Naval Research Logistics Quarterly'', '''12''' (1965), 223-259. &lt;br /&gt;
&lt;br /&gt;
[5] T. S. H. Driessen, ''Cooperative Games, Solutions and Applications'', Kluwer Academic Publishers, 1988.                       &lt;br /&gt;
&lt;br /&gt;
[6] T. S. H. Driessen, &amp;quot;A Survey of Consistency Properties in Cooperative Game Theory,&amp;quot; ''SIAM Review'', '''33''' (1991), 43-59. &lt;br /&gt;
&lt;br /&gt;
[7] 岡田章, 『ゲーム理論』, 有斐閣, 1996. &lt;br /&gt;
&lt;br /&gt;
[8] D. Schmeidler, &amp;quot;The Nucleolus of a Characteristic Function Game,&amp;quot; ''SIAM Journal of Applied Mathematics'', '''17''' (1969), 1163-1170.&lt;br /&gt;
&lt;br /&gt;
[9] L. S. Shapley, &amp;quot;A Value for n-Person Games,&amp;quot; in ''Contributions to the Theory of Games II'', H. Kuhn and A. W. Tucker, eds., Princeton University Press, 1953. &lt;br /&gt;
&lt;br /&gt;
[10] 鈴木光男, 『新ゲーム理論』, 勁草書房, 1994. &lt;br /&gt;
&lt;br /&gt;
[11] 鈴木光男, 武藤滋夫, 『協力ゲームの理論』, 東京大学出版会, 1985. &lt;br /&gt;
&lt;br /&gt;
[12] J. von Neumann and O. Morgenstern, ''Theory of Games and Economic Behavior, 3rd ed.'', Princeton University Press, 1953.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E9%80%B2%E5%8C%96%E3%81%A8%E5%AD%A6%E7%BF%92%E3%81%AE%E3%82%B2%E3%83%BC%E3%83%A0%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5035</id>
		<title>《進化と学習のゲーム理論》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E9%80%B2%E5%8C%96%E3%81%A8%E5%AD%A6%E7%BF%92%E3%81%AE%E3%82%B2%E3%83%BC%E3%83%A0%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5035"/>
		<updated>2007-07-16T14:19:22Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【しんかとがくしゅうのげーむりろん (evolutionary game theory and learning in game theory) 】'''&lt;br /&gt;
&lt;br /&gt;
　伝統的な[[ゲーム理論]]では, 他の[[プレイヤー]]の[[利得関数]]などゲームの構造を熟知した「合理的」なプレイヤー像を想定してきた. そして, [[非協力ゲーム理論]]における中心的な解である[[ナッシュ均衡]]は, このような合理的なプレイヤーの[[利得 (ゲームの)|利得]]最大化行動の結果達成されると考えられてきた. しかしながら, ゲーム理論の考察の対象は, 必ずしも合理的な意思決定主体に限られない. 実際, ゲームの構造を完全には知らず, ある一定の行動規則に従って行動する「[[限定合理的]]」なプレイヤーを想定し, 彼らの意思決定の過程を記述する様々な動学モデルが存在する. そして, これらの動学モデルの定常状態は ナッシュ均衡と密接な関連があることが明らかになってきている. 本項目では, この種の動学モデルのうち代表的なものとして,  1　[[自己複製子動学]] (replicator dynamics),  2　[[確率的進化 (ゲーム理論における)|確率的進化]] (stochastic evolution),  3　[[仮想プレイ]] (fictitious play) の3つ をとりあげて解説する. &lt;br /&gt;
&lt;br /&gt;
1　自己複製子動学：&amp;lt;math&amp;gt;n\times n\, &amp;lt;/math&amp;gt; 行列 &amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt; をプレイヤー1の利得行列とし, &amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;の転置行列&amp;lt;math&amp;gt;A^{\top}\, &amp;lt;/math&amp;gt;をプレイヤー2の利得行列とする2人ゲーム&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;(以下, 2人対称ゲームと呼ぶ)が, 非常に大きな母集団からその都度ランダムに選ばれた2人のプレイヤーによって, 繰り返しプレイされる状況を考える. 時点 &amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt; において, 母集団の中で[[純戦略]] &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i=1, \dots, n\, &amp;lt;/math&amp;gt;) をとるプレイヤーの比率を &amp;lt;math&amp;gt;x_i(t)\, &amp;lt;/math&amp;gt;とする. &amp;lt;math&amp;gt;x(t)=(x_1(t), \dots, x_n(t))\, &amp;lt;/math&amp;gt;の全体を&amp;lt;math&amp;gt;{\mathit\Delta}^n\, &amp;lt;/math&amp;gt; とする.  &amp;lt;math&amp;gt;{\mathit\Delta}^n=\{x(t)=(x_1(t), \dots, x_n(t)) | x_1(t)+\cdots+x_n(t)=1,  x_1(t), \dots, x_n(t)\ge 0\}\, &amp;lt;/math&amp;gt;である. このとき, &amp;lt;math&amp;gt;{\mathit\Delta}^n\, &amp;lt;/math&amp;gt; 上の微分方程式系&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\frac{\dot x_i}{x_i}=(Ax)_i-x\cdot Ax\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を自己複製子動学という. ここで,  &amp;quot;&amp;lt;math&amp;gt;\cdot\, &amp;lt;/math&amp;gt;&amp;quot; は内積を, &amp;lt;math&amp;gt;(Ax)_i\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;Ax\, &amp;lt;/math&amp;gt; の 第 &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; 成分をあらわす. これは, 純戦略 &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; を使うプレイヤーの成長率が, その戦略を使ったときの利得とすべての戦略の利得の平均値との差であるというモデルである. このモデルは, 数理生物学においてダーウィン的自然選択の自然なモデル化とみなされている. &lt;br /&gt;
&lt;br /&gt;
　いま, もとの2人対称ゲームにおいて, [[混合戦略]]の組&amp;lt;math&amp;gt;(x, x), x\in{\mathit\Delta}^n\, &amp;lt;/math&amp;gt;, がナッシュ均衡, 即ち, 任意の&amp;lt;math&amp;gt;y\in{\mathit\Delta}^n\, &amp;lt;/math&amp;gt;に対して, &amp;lt;math&amp;gt;x\cdot Ax \ge y\cdot Ax\, &amp;lt;/math&amp;gt; であり, さらに, &amp;lt;math&amp;gt;x\cdot Ax=y\cdot Ax\, &amp;lt;/math&amp;gt; である任意の &amp;lt;math&amp;gt;y\in{\mathit\Delta}^n\, &amp;lt;/math&amp;gt;に対して, &amp;lt;math&amp;gt;x\cdot Ay &amp;gt;y\cdot Ay\, &amp;lt;/math&amp;gt; となるとき, 戦略&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;を[[進化的安定戦略]] (evolutionarily stable strategy) という.  進化的安定戦略であるための条件は, 十分小さな&amp;lt;math&amp;gt;\epsilon &amp;gt;0\, &amp;lt;/math&amp;gt;に対して, &amp;lt;math&amp;gt;x\cdot Az&amp;gt;y\cdot Az\, &amp;lt;/math&amp;gt;, ただし&amp;lt;math&amp;gt;z=(1-\epsilon)x+\epsilon y\, &amp;lt;/math&amp;gt;, と書き変えることができ, 他の戦略yの進入に対して&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;が安定であることを表している. 進化的安定戦略&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;は自己複製子動学において漸近安定である, つまり, &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;においてどのような小さな摂動を受けたとしても, それが十分小さければまた&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; に戻る動きが導かれる, ことが示されている. 自己複製子動学とナッシュ均衡の関係 などより詳しくは, [3], [9] を参照. &lt;br /&gt;
&lt;br /&gt;
2　確率的進化：前項と同様, &amp;lt;math&amp;gt;n\times n\, &amp;lt;/math&amp;gt; 行列 &amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;をプレイヤー1の利得行列とし, &amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;の転置行列&amp;lt;math&amp;gt;A^{\top}\, &amp;lt;/math&amp;gt;をプレイヤー2の利得行列とする2人対称ゲーム &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; を考え, このゲーム&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;が, &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;人 (&amp;lt;math&amp;gt;N&amp;gt;2\, &amp;lt;/math&amp;gt;)の母集団からその都度ランダムに選ばれた2人のプレイヤーによって繰り返しプレイされるとする. &lt;br /&gt;
&lt;br /&gt;
　まず, 動学過程の状態集合として &amp;lt;math&amp;gt;\textstyle S=\{s=(s_1, \dots, s_n)|\sum_is_i=N, s_i\, &amp;lt;/math&amp;gt;\ は自然数&amp;lt;math&amp;gt;\}\, &amp;lt;/math&amp;gt; をとる.  &amp;lt;math&amp;gt;s_i\, &amp;lt;/math&amp;gt; は純戦略 &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;  (&amp;lt;math&amp;gt;i=1, \ldots, n\, &amp;lt;/math&amp;gt;) をとるプレイヤーの人数である.  任意の &amp;lt;math&amp;gt;s\in S\, &amp;lt;/math&amp;gt; および &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;i=1, \ldots, n\, &amp;lt;/math&amp;gt;)について, &amp;lt;math&amp;gt;\textstyle x_i(s)=\frac{1}{N-1}(s_1, \dots, s_i-1, \dots, s_n)\in{\mathit\Delta}^n\, &amp;lt;/math&amp;gt; とする. &amp;lt;math&amp;gt;x_i(s)\, &amp;lt;/math&amp;gt; は, プレイヤー &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; から見た状態 &amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt; における他者の戦略分布である. &amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt; 期の状態が &amp;lt;math&amp;gt;s\in S\, &amp;lt;/math&amp;gt; とき, 戦略 &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; をとるプレイヤーは &amp;lt;math&amp;gt;t+1\, &amp;lt;/math&amp;gt; 期に, 確率 &amp;lt;math&amp;gt;1-\epsilon\, &amp;lt;/math&amp;gt;で&amp;lt;math&amp;gt;x_{i}(s)\, &amp;lt;/math&amp;gt;に対する[[最適反応 (ゲーム理論における)|最適反応]]戦略&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;を選択し, 確率 &amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt; である外生的に与えられた確率分布 &amp;lt;math&amp;gt;q=(q_1, \dots, q_n)\, &amp;lt;/math&amp;gt;にしたがって戦略を選択するものとする. ここで, &amp;lt;math&amp;gt;\epsilon&amp;gt;0\, &amp;lt;/math&amp;gt; かつ &amp;lt;math&amp;gt;q_1, \dots, q_n&amp;gt;0\, &amp;lt;/math&amp;gt; である. これは, 戦略の選択にあたって確率 &amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt; で「ミス」または「突然変異」が起こることを表している. &lt;br /&gt;
&lt;br /&gt;
　このモデルは状態の集合 &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; 上の唯1つの定常確率分布 &amp;lt;math&amp;gt;\mu_\epsilon\, &amp;lt;/math&amp;gt;を持つ有限マルコフ連鎖を導く. いま, &amp;lt;math&amp;gt;\epsilon\to 0\, &amp;lt;/math&amp;gt; としたときの極限分布&amp;lt;math&amp;gt;\textstyle \mu^*=\lim_{\epsilon\to 0}\mu_\epsilon\, &amp;lt;/math&amp;gt; について, &amp;lt;math&amp;gt;\mu^*(s)&amp;gt;0\, &amp;lt;/math&amp;gt; となる状態&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;を確率的安定状態という. 確率的安定状態に対応するゲーム &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;の戦略分布は, この動学過程を十分長期に観察した場合に, 最も頻繁に観察される戦略分布である. 確率的安定状態の集合は, &amp;lt;math&amp;gt;\epsilon=0\, &amp;lt;/math&amp;gt;の場合のこの過程の再帰集合の1つとなる. &amp;lt;math&amp;gt;\epsilon=0\, &amp;lt;/math&amp;gt;の場合の再帰集合は一般に複数個存在するので, 確率的安定性は複数の再帰集合から「もっとも起こりやすい」ものを1つ特定することとなる. 特に, &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;が[[狭義ナッシュ均衡]]を複数個持つ場合, 一般にこの中の唯1つが確率的安定状態に対応する. 従って, 確率的安定性により複数個の狭義ナッシュ均衡から1つを選び出すことができる. 確率的安定な状態に対応するナッシュ均衡を, [[確率的安定均衡 (ゲーム理論の)|確率的安定均衡]] (stochastically stable equilibrium)という. 確率的進化については, [2], [7], [8], [10] が詳しい. &lt;br /&gt;
&lt;br /&gt;
3　仮想プレイ：&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; 人[[戦略形ゲーム]] &amp;lt;math&amp;gt;G=(N=\{1, \ldots, n\}, S_1, \ldots, S_n, u_1, \ldots, u_n)\, &amp;lt;/math&amp;gt; が  &amp;lt;math&amp;gt;t=1, 2, \ldots\, &amp;lt;/math&amp;gt;の各期 にプレイされる状況を考える. &amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt; 期に実現した戦略の組を &amp;lt;math&amp;gt;x^t=(x^t_1, \dots, x^t_n)\, &amp;lt;/math&amp;gt; とすると, &amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt; 期までにとられた戦略の組の列 &amp;lt;math&amp;gt;h^t=(x^1, \dots, x^t)\, &amp;lt;/math&amp;gt; によってプレイヤー &amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt; が戦略集合 &amp;lt;math&amp;gt;S_j\, &amp;lt;/math&amp;gt; の各戦略を&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;期までにとった頻度の分布が定まる. これを&amp;lt;math&amp;gt;p_j^t\, &amp;lt;/math&amp;gt;で表す. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;p_{-i}^t\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;以外のプレイヤー&amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt;に関する &amp;lt;math&amp;gt;p_j^t\, &amp;lt;/math&amp;gt; の直積分布とする. 各プレイヤー &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; が, &amp;lt;math&amp;gt;t+1\, &amp;lt;/math&amp;gt; 期において &amp;lt;math&amp;gt;p_{-i}^t\, &amp;lt;/math&amp;gt; に対する最適反応戦略 &amp;lt;math&amp;gt;x^{t+1}_i\, &amp;lt;/math&amp;gt; をプレイすることにより, &amp;lt;math&amp;gt;x^{t+1}=(x^{t+1}_1, \dots, x^{t+1}_n)\, &amp;lt;/math&amp;gt; が定まる.  &amp;lt;math&amp;gt;t=1\, &amp;lt;/math&amp;gt; 期の戦略は初期状態として外生的に与えられるとする. 以上のように戦略が選択されていく動学過程を仮想プレイとよぶ. &lt;br /&gt;
&lt;br /&gt;
　任意の &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; について &amp;lt;math&amp;gt;\textstyle p_{i}^*=\lim_{t\to\infty}p_{i}^t\, &amp;lt;/math&amp;gt; が存在するとき, 仮想プレイは収束するという. 仮想プレイが収束するならば,  &amp;lt;math&amp;gt;(p_{1}^*, \dots, p_{n}^*)\, &amp;lt;/math&amp;gt; はゲーム &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; のナッシュ均衡である. 2人ゼロ和ゲームや2人のプレイヤーがそれぞれ2つの純戦略を持つ &amp;lt;math&amp;gt;2\times 2\, &amp;lt;/math&amp;gt; ゲームにおいては, 仮想プレイは収束することが知られているが, 一般には仮想プレイは収束するとは限らない. 仮想プレイが収束しないゲームの例として, シャープレイ(L. S. Shapley)の &amp;lt;math&amp;gt;3\times 3\, &amp;lt;/math&amp;gt; ゲームの例が有名である. 仮想プレイの詳細および一般化については, [1], [2], [6]が詳しい. &lt;br /&gt;
&lt;br /&gt;
　なお, 他のプレイヤーの戦略などに対する予想を, ゲームの繰り返しを通じて逐次ベイズ的に更新していく合理的なプレイヤーを想定した学習モデルもある.  [4] および [5] を参照されたい. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] D. Fudenberg and D. Kreps, &amp;quot;Learning Mixed Equilibria,&amp;quot; ''Games and Economic Behavior'', '''5''' (1993), 320-367. &lt;br /&gt;
&lt;br /&gt;
[2] D. Fudenberg and D. Levine, ''The Theory of Learning in Games'', MIT Press, 1998. &lt;br /&gt;
&lt;br /&gt;
[3] J. Hofbauer and K. Sigmund, ''Evolutionary Games and Population Dynamics'', Cambridge University Press, 1988. 竹内康博, 「生物の進化と微分方程式」, 現代数学社, 1990. &lt;br /&gt;
&lt;br /&gt;
[4] J. S. Jordan, &amp;quot;Bayesian Learning in Normal Form Games,&amp;quot; ''Games and Economic Behavior'', '''3''' (1991), 60-81. &lt;br /&gt;
&lt;br /&gt;
[5] E. Kalai and E. Lehrer, &amp;quot;Rational Learning Leads to Nash Equilibria,&amp;quot; ''Econometrica'', '''61''' (1993), 1019-1046. &lt;br /&gt;
&lt;br /&gt;
[6] P. Milgrom and J. Roberts, &amp;quot;Adaptive and Sophisticated Learning in Normal Form Games,&amp;quot; ''Games and Economic Behavior'', '''3''' (1991), 82-100. &lt;br /&gt;
&lt;br /&gt;
[7] L. Samuelson, ''Evolutionary Games and Equilibrium Selection'', MIT Press, 1997. &lt;br /&gt;
&lt;br /&gt;
[8] F. Vega-Redondo, ''Evolution, Games, and Economic Behavior'', Oxford University Press, 1996. &lt;br /&gt;
&lt;br /&gt;
[9] J. Weibull, ''Evolutionary Game Theory'', MIT Press, 1995. 大和瀬達二監訳, 「進化ゲームの理論」, 文化書房博文社, 1998. &lt;br /&gt;
&lt;br /&gt;
[10] H. P. Young, ''Individual Strategy and Social Structure'', Princeton University Press, 1998.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%B1%95%E9%96%8B%E5%BD%A2%E3%82%B2%E3%83%BC%E3%83%A0%E3%80%8B&amp;diff=5034</id>
		<title>《展開形ゲーム》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%B1%95%E9%96%8B%E5%BD%A2%E3%82%B2%E3%83%BC%E3%83%A0%E3%80%8B&amp;diff=5034"/>
		<updated>2007-07-16T14:17:02Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;【てんかいけいげーむ (game in extensive form) 】&lt;br /&gt;
&lt;br /&gt;
　[[展開形ゲーム]] (game in extensive form) はプレイヤーの手番の系列を[[ゲームの木]] (game tree) を用いて表現するモデルである. ゲームの木 &amp;lt;math&amp;gt;K\, &amp;lt;/math&amp;gt; はグラフ理論でいう有向木で, 木の分岐点はプレイヤーが選択肢を選ぶ手番, 枝は[[プレイヤー]]の選択肢あるいは行動を表す. 木の始点から終点までの経路をゲームの1つのプレイという. &lt;br /&gt;
&lt;br /&gt;
　プレイヤー分割 &amp;lt;math&amp;gt;P=[P_{0}, P_{1}. \cdots, P_{n}]\, &amp;lt;/math&amp;gt; は, ゲームの木 &amp;lt;math&amp;gt;K\, &amp;lt;/math&amp;gt; の分岐点の全体を &amp;lt;math&amp;gt;n+1\, &amp;lt;/math&amp;gt; 個の部分集合に分割する. &amp;lt;math&amp;gt;P_{i}\ (i=1, 2, \cdots, n)\, &amp;lt;/math&amp;gt; はプレイヤー &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; の手番の集合を表す. &amp;lt;math&amp;gt;P_{0}\, &amp;lt;/math&amp;gt; に含まれる手番は偶然手番とよばれ, プレイヤーの意思とは無関係な偶然機構によって枝が選択される. 天候やトランプゲームでランダムにカードを配るなどは, 偶然手番の典型的な例である. 偶然手番に対しては枝の選択を行なう確率分布 &amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt; が付与される. &lt;br /&gt;
&lt;br /&gt;
　ゲームの情報分割 &amp;lt;math&amp;gt;U=[U_{0}, U_{1}, \cdots, U_{n}]\, &amp;lt;/math&amp;gt; は,プレイヤー分割&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt; の細分割である.各 &amp;lt;math&amp;gt;i=1, 2, \cdots, n\, &amp;lt;/math&amp;gt; に対して &amp;lt;math&amp;gt;U_{i}=[u_{i1}, u_{i2}, \cdots, u_{im_{i}}]\, &amp;lt;/math&amp;gt;はプレイヤー &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; の手番の集合 &amp;lt;math&amp;gt;P_{i}\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;m_{i}\, &amp;lt;/math&amp;gt; 個の非空な部分集合に分割する. &amp;lt;math&amp;gt;U_{i}\, &amp;lt;/math&amp;gt; に属する部分集合 &amp;lt;math&amp;gt;u_{ij}\ (j=1, 2, \cdots, m_{i})\, &amp;lt;/math&amp;gt; をプレイヤー &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; の[[情報集合]] (information set)  という.プレイヤーは行動を選択するとき,自分の手番がどの情報集合に属するかは知っているが,情報集合の中のどの分岐点であるかは知らない. &lt;br /&gt;
&lt;br /&gt;
　ゲームの[[利得関数]] &amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt; は,ゲームの木 &amp;lt;math&amp;gt;K\, &amp;lt;/math&amp;gt; の各終点 &amp;lt;math&amp;gt;z\, &amp;lt;/math&amp;gt; に対してプレイヤーの[[利得 (ゲームの)|利得]]ベクトル &amp;lt;math&amp;gt;h(z)=(h_{1}(z), h_{2}(z), \cdots, h_{n}(z))\, &amp;lt;/math&amp;gt; を対応させる. &lt;br /&gt;
&lt;br /&gt;
　形式的には, 展開形ゲーム &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; は以上の5つの要素の組 &amp;lt;math&amp;gt;(K, P, p, U, h)\, &amp;lt;/math&amp;gt; によって定義される. これらの5つの構成要素をゲームのルールという. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;table&amp;gt;&amp;lt;tr&amp;gt;&amp;lt;td align=center&amp;gt;[[画像:0072-a-g-04f1-mof.png|center|図１：展開形ゲーム]]&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=center&amp;gt;図１：展開形ゲーム&amp;lt;/td&amp;gt;&amp;lt;/table&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　展開形ゲームの例として図1を考える.プレイヤー1と2の情報分割はそれぞれ &amp;lt;math&amp;gt;U_{1}=[u_{1}], U_{2}=[u_{21}, u_{22}]\, &amp;lt;/math&amp;gt; である.図1では最初にプレイヤー1がRとLの2つの行動のうち1つを選択する. 次に, プレイヤー2はプレイヤー1の選択を知った上で, RとLのうちから1つの行動を選択する.ゲームは4つの終点をもち, 終点に付与されている利得ベクトルは上の数字がプレイヤー1の利得, 下の数字がプレイヤー2の利得を表す. &lt;br /&gt;
&lt;br /&gt;
　図1のゲームのように, プレイヤーのすべての情報集合がただ1つの分岐点から成るゲームを[[完全情報ゲーム]] (game with perfect information) といい, そうでないゲームを不完全情報ゲーム (game with imperfect information) という. 完全情報ゲームでは, すべての手番においてプレイヤーはゲームの過去のプレイの経過を完全に知った上で行動を選択できる. チェスや将棋は完全情報ゲームである. &lt;br /&gt;
&lt;br /&gt;
　展開形ゲームの部分木でそれ自身が展開形ゲームの構造をもつものを部分ゲームという. 図1のゲームは, 情報集合 &amp;lt;math&amp;gt;u_{21}\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;u_{22}\, &amp;lt;/math&amp;gt; から始まる2つの部分ゲームをもつ. &lt;br /&gt;
&lt;br /&gt;
　プレイヤー &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; の各情報集合 &amp;lt;math&amp;gt;u\in U_{1}\, &amp;lt;/math&amp;gt; に対して &amp;lt;math&amp;gt;u\, &amp;lt;/math&amp;gt; における選択肢の集合上の1つの確率分布 &amp;lt;math&amp;gt;b_{i}(u)\, &amp;lt;/math&amp;gt; を対応させる関数 &amp;lt;math&amp;gt;b_{i}\, &amp;lt;/math&amp;gt; をプレイヤー &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; の[[行動戦略]] (behavior strategy) という. 特に, すべての情報集合に対して1つの選択肢を確定的に対応させる行動戦略を[[純戦略]]という. &lt;br /&gt;
&lt;br /&gt;
　例えば, 図1のゲームにおいて, プレイヤー1の純戦略 &amp;lt;math&amp;gt;\pi_{1}\, &amp;lt;/math&amp;gt; はRとLの2通りであり, プレイヤー2の純戦略 &amp;lt;math&amp;gt;\pi_{2}\, &amp;lt;/math&amp;gt; は, RR, RL, LR, LLの4通りである. ただし, 前の文字は情報集合 &amp;lt;math&amp;gt;u_{21}\, &amp;lt;/math&amp;gt; でとる行動, 後の文字は情報集合 &amp;lt;math&amp;gt;u_{22}\, &amp;lt;/math&amp;gt; でとる行動を表す. 図1の展開形ゲームから, プレイヤーの純戦略と利得の関係によって図2のような[[戦略形ゲーム]]を作ることができる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;table width=&amp;quot;310&amp;quot; border=&amp;quot;1&amp;quot; cellspacing=&amp;quot;2&amp;quot; cellpadding=&amp;quot;0&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
	&amp;lt;td width=&amp;quot;30&amp;quot;&amp;gt;&amp;lt;br&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;&lt;br /&gt;
		&amp;lt;table width=&amp;quot;280&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;LL&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;LR&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;RL&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;RR&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
		&amp;lt;/table&amp;gt;&lt;br /&gt;
	&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;R&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;&lt;br /&gt;
		&amp;lt;table width=&amp;quot;280&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;1, 1*&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;1, 1*&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;-2, 0&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;-2, 0&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
		&amp;lt;/table&amp;gt;&lt;br /&gt;
	&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;L&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;&lt;br /&gt;
		&amp;lt;table width=&amp;quot;280&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;-1, 0&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;0, 1&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;-1, 0&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td align=&amp;quot;center&amp;quot; width=&amp;quot;70&amp;quot;&amp;gt;0, 1*&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
		&amp;lt;/table&amp;gt;&lt;br /&gt;
	&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
		&amp;lt;/table&amp;gt;&amp;lt;br&amp;gt;図2：図1の展開形ゲームから作られた戦略形ゲーム&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　プレイヤーの行動分析のための最も基本的なゲームの解の概念は, ナッシュ (J. F. Nash) によって定義された非協力均衡点である. 一般に[[ナッシュ均衡]]と呼ばれている. 展開形ゲームの行動戦略の組 &amp;lt;math&amp;gt;b^{*}=(b_{1}^{*}, b_{2}^{*}, \cdots, b_{n}^{*})\, &amp;lt;/math&amp;gt; がナッシュ均衡であるとは,すべてのプレイヤー &amp;lt;math&amp;gt;i=1, 2, \cdots, n\, &amp;lt;/math&amp;gt; のすべての行動戦略 &amp;lt;math&amp;gt;b_{i}\, &amp;lt;/math&amp;gt; に対して, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;H_{i}(b^{*}) \ge H_{i}(b^{*}/b_{i})\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
　&lt;br /&gt;
&lt;br /&gt;
が成り立つことである. ただし, &amp;lt;math&amp;gt;b^{*}/b_{i}\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;b^{*}\, &amp;lt;/math&amp;gt; からプレイヤー &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; だけが戦略を &amp;lt;math&amp;gt;b_{i}^{*}\, &amp;lt;/math&amp;gt; から &amp;lt;math&amp;gt;b_{i}\, &amp;lt;/math&amp;gt; に変更してできる行動戦略の組を表し, &amp;lt;math&amp;gt;H_{i}\, &amp;lt;/math&amp;gt; はプレイヤー i の期待利得関数を表す. &lt;br /&gt;
&lt;br /&gt;
　完全情報ゲームのナッシュ均衡は, 最初に, 終点に一番近い分岐点で, その手番のプレイヤーの利得を最大にする最適戦略を求め, 以下順次, ゲームの木を後向きに解くことによって計算できる. 例えば, 図1のゲームで情報集合 &amp;lt;math&amp;gt;u_{21}\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;u_{22}\, &amp;lt;/math&amp;gt; におけるプレイヤー2の最適戦略はそれぞれLとRである. このとき, 情報集合 &amp;lt;math&amp;gt;u_{1}\, &amp;lt;/math&amp;gt; におけるプレイヤー1の最適戦略はRであり, 純戦略の組 (R, LR) はゲームのナッシュ均衡である. このようなナッシュ均衡の計算方法を, ゲームの後向き帰納法という. キューン (H. Kuhn) は, &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; 人完全情報ゲームは純戦略の範囲で少なくとも1つのナッシュ均衡をもつことを証明した [1]. &lt;br /&gt;
&lt;br /&gt;
　図1のゲームは (R, LR) の他に図2の利得行列で＊をつけたナッシュ均衡をもつ. しかし, これらのナッシュ均衡は均衡プレイ上にない分岐点ではプレイヤーの最適戦略を導かないという欠点をもつ. ゼルテン (R. Selten) はナッシュ均衡のこのような欠点を解消するために, より強い均衡概念として, すべての部分ゲーム上にナッシュ均衡を導く[[部分ゲーム完全均衡]] (subgame perfect equilibrium) を定義した [3]. &lt;br /&gt;
&lt;br /&gt;
　ゼルテンの研究以後, 展開形ゲームの理論は大きく進展し, 現在, ゲーム状況におけるプレイヤーの戦略的行動を解明する基礎理論としてORや経済学を始め広範囲の分野に応用されている. &lt;br /&gt;
&lt;br /&gt;
　展開形ゲームについて詳しくは, [2] を参照されたい. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] H. W. Kuhn, &amp;quot;Extensive Games and the Problem of Information,&amp;quot; in H. W. Kuhn and A. Tucker(eds.), ''Contributions to the Theory of Games'', Vol. II, Annals of Mathematics Studies 28, Princeton University Press, 1953, 193-216. &lt;br /&gt;
&lt;br /&gt;
[2] 岡田 章, 『ゲーム理論』, 有斐閣, 1996. &lt;br /&gt;
&lt;br /&gt;
[3] R. Selten, &amp;quot;Reexamination of the Perfectness Concept for Equilibrium Points in Extensive Games,&amp;quot; ''International Journal of Game Theory'', '''4''' (1975), 25-55.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%88%A6%E7%95%A5%E5%BD%A2%E3%82%B2%E3%83%BC%E3%83%A0%E3%80%8B&amp;diff=5033</id>
		<title>《戦略形ゲーム》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%88%A6%E7%95%A5%E5%BD%A2%E3%82%B2%E3%83%BC%E3%83%A0%E3%80%8B&amp;diff=5033"/>
		<updated>2007-07-16T14:15:30Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【せんりゃくけいげーむ (game in strategic form) 】'''&lt;br /&gt;
&lt;br /&gt;
　ゲームに参加する[[プレイヤー]]の集合を&amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;, 各プレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;のとりうる[[戦略 (ゲーム理論における)|戦略]]の全体を&amp;lt;math&amp;gt;S_i\, &amp;lt;/math&amp;gt;, および&amp;lt;math&amp;gt;S=S_1 \times \cdots \times S_n\, &amp;lt;/math&amp;gt; 上で定義された各プレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt; の[[フォンノイマン・モルゲンシュテルン効用関数]] (von Neumann-Morgenstern utility function) を&amp;lt;math&amp;gt;u_i\, &amp;lt;/math&amp;gt; とするとき,&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;G=(N; S_1, \ldots , S_n; u_1, \ldots , u_n)\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を[[戦略形ゲーム]] (game in strategic form) または[[標準形ゲーム]] (game in normal form) という. &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt; と&amp;lt;math&amp;gt;S_i\, &amp;lt;/math&amp;gt; がすべて有限集合であるとき, &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; を有限ゲームという. 効用関数&amp;lt;math&amp;gt;u_i\, &amp;lt;/math&amp;gt; は, また[[利得関数]] (payoff function) ともいい, その値を利得という. &lt;br /&gt;
&lt;br /&gt;
　戦略形で書かれたゲームは, 特にことわらない限り[[非協力ゲーム]]である. 戦略の数が有限な2人ゲームは次のような[[利得双行列 (ゲームの)|利得双行列]] (payoff bimatrix) で表現することができるので, [[双行列ゲーム]] (bimatrix game) ということがある. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[スタイル検討#戦略形ゲーム (0071-a-g-03-1)|スタイル検討]]&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　ここに, 縦の&amp;lt;math&amp;gt;1, \ldots, m\, &amp;lt;/math&amp;gt;はプレイヤー1の戦略, 横の&amp;lt;math&amp;gt;1, \ldots, n\, &amp;lt;/math&amp;gt;はプレイヤー2の戦略であり, &amp;lt;math&amp;gt;a_{ij}, b_{ij}\, &amp;lt;/math&amp;gt; は, プレイヤー1, 2が各々戦略&amp;lt;math&amp;gt;i, \ j\, &amp;lt;/math&amp;gt;をとったときの, プレイヤー1, 2の利得である. &amp;lt;math&amp;gt;a_{ij}\, &amp;lt;/math&amp;gt;を成分とする行列を&amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;b_{ij}\, &amp;lt;/math&amp;gt;を成分とする行列を&amp;lt;math&amp;gt;B\, &amp;lt;/math&amp;gt;と表し, 利得双行列を簡単に&amp;lt;math&amp;gt;(A, B)\, &amp;lt;/math&amp;gt;と表す. すべての&amp;lt;math&amp;gt;i, \ j\, &amp;lt;/math&amp;gt;について, &amp;lt;math&amp;gt;a_{ij} + b_{ij} = 0\, &amp;lt;/math&amp;gt;となる場合が[[2人ゼロ和ゲーム]] (two-person zerosum game) の戦略形である. 行列&amp;lt;math&amp;gt;B\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;の符号を変えたものであり, 行列&amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;だけでゲームを記述できるので2人ゼロ和ゲームを[[行列ゲーム]] (matrix game) ということもある. &lt;br /&gt;
&lt;br /&gt;
　双行列ゲーム&amp;lt;math&amp;gt;(A, B)\, &amp;lt;/math&amp;gt;において, 各プレイヤーの[[混合戦略]] (mixed strategy) を各々&amp;lt;math&amp;gt;p=(p_1, \ldots , p_m)\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;q=( q_1, \ldots , q_n)\, &amp;lt;/math&amp;gt; とすると, 各プレイヤーの利得の期待値 (期待利得) は各々 &amp;lt;math&amp;gt;pAq^{\top}\, &amp;lt;/math&amp;gt; および  &amp;lt;math&amp;gt;pBq^{\top}\, &amp;lt;/math&amp;gt; で与えられる. &amp;lt;math&amp;gt;q^{\top}\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;q\, &amp;lt;/math&amp;gt;の転置ベクトルを表す. また, 混合戦略に対してもとの戦略を[[純戦略]] (pure strategy) という. [[ナッシュ均衡]] &amp;lt;math&amp;gt;(p^*, q^*)\, &amp;lt;/math&amp;gt;は, [[非協力ゲーム理論]]の項で述べた定義によって, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;p^*Aq^{*\top} \ge pAq^{*\top}, \  p^*Bq^{*\top} \ge p^*Bq^{\top}, \ \mbox{ for all } p, \ q \, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
をみたす混合戦略の組である. とくに, ゼロ和ゲームでは, &amp;lt;math&amp;gt;B=-A\, &amp;lt;/math&amp;gt;であるから&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;pAq^{*\top} \le p^*Aq^{*\top} \le p^*Aq^{\top} , \ \ \mbox{ for all } p, \ q \, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
となり, これから[[ミニマックス定理 (ゲーム理論における)|ミニマックス定理]] (minimax theorem)　&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mbox{max}_{p} \mbox{min}_{q} \ pAq^{\top} \ =\ \mbox{min}_{q}\mbox{max}_{p}\ \ pAq^{\top} \, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が導かれ, さらにこの値は&amp;lt;math&amp;gt;p^*Aq^{*\top}\, &amp;lt;/math&amp;gt;に等しい. 左辺の値をマックスミニ値 (maxmin value), 右辺の値をミニマックス値(minimax value), さらに, この共通の値を[[ゲームの値]] (value of a game) という. また, このときの戦略&amp;lt;math&amp;gt;p^*, \ q^*\, &amp;lt;/math&amp;gt;を各々[[マックスミニ戦略]] (maxmin strategy), [[ミニマックス戦略]] (minimax strategy) という. &lt;br /&gt;
　次に示すのは, 左が囚人のジレンマ (prisoner's dilemma), 右が逢い引きのジレンマ (battle of the sexes) という名で知られる有名な双行列ゲームである. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[スタイル検討#戦略形ゲーム (0071-a-g-03-2)|スタイル検討]]&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
囚人のジレンマでは, 純戦略の組 &amp;lt;math&amp;gt;(d, \ d)\, &amp;lt;/math&amp;gt;のみが, また, 逢い引きのジレンマでは, 純戦略の組 &amp;lt;math&amp;gt;(a, \ a)\, &amp;lt;/math&amp;gt;および&amp;lt;math&amp;gt;(b, \ b)\, &amp;lt;/math&amp;gt;と, 混合戦略の組 &amp;lt;math&amp;gt;((2/3, 1/3)\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;(1/3, 2/3))\, &amp;lt;/math&amp;gt;がナッシュ均衡である. とくに, 囚人のジレンマのナッシュ均衡では, 戦略&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;は相手のすべての戦略に対する[[最適反応 (ゲーム理論における)|最適反応]] (best reply) となっている. このようなナッシュ均衡を, [[支配戦略]]均衡 (dominant strategy equilibrium) ということがある. 逢い引きのジレンマには支配戦略は存在しない. また, 逢い引きのジレンマでは, 混合戦略ナッシュ均衡における利得の組&amp;lt;math&amp;gt;(2/3, \ 2/3)\, &amp;lt;/math&amp;gt;は, たとえば純粋戦略ナッシュ均衡&amp;lt;math&amp;gt;(a, \ a)\, &amp;lt;/math&amp;gt;における利得の組&amp;lt;math&amp;gt;(2, \ 1)\, &amp;lt;/math&amp;gt;に対して各プレイヤーについて劣っている. このとき, 利得の組&amp;lt;math&amp;gt;(2/3, \ 2/3)\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;(2, \ 1)\, &amp;lt;/math&amp;gt;に[[パレート支配]] (Pareto dominate) されるという. &lt;br /&gt;
&lt;br /&gt;
　戦略形ゲームにおいて, もし, 各プレイヤーが共通の偶然機構にもとづいて戦略を選ぶことが許されているならば, 各プレイヤーは互いに相関した行動をとることができる. このような戦略を[[相関戦略]] (correlated strategy) という. たとえば, 逢い引きのジレンマで, コインを投げて表が出たら戦略の組&amp;lt;math&amp;gt;(a, \ a)\, &amp;lt;/math&amp;gt;, 裏が出たら&amp;lt;math&amp;gt;(b, \ b)\, &amp;lt;/math&amp;gt;とすることに2人が合意したとしよう. つまり, 2人とも, 表が出たら&amp;lt;math&amp;gt;a\, &amp;lt;/math&amp;gt;をとり, 裏が出たら&amp;lt;math&amp;gt;b\, &amp;lt;/math&amp;gt;をとるという相関戦略をとるものとする. このような合意がナッシュ均衡になるとき, すなわち, 相関戦略の組がナッシュ均衡となっているとき, これを[[相関均衡]] (correlated equilibrium) という. 上に述べた相関戦略の組は相関均衡であり, 2人の期待利得はともに&amp;lt;math&amp;gt;3/2\, &amp;lt;/math&amp;gt;となることが容易にわかる. また, 混合戦略均衡は互いに独立な相関戦略からなる相関均衡にほかならない. 相関均衡の正式な定義については, たとえば [3] など参照. 　&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　以上のゲームでは, 戦略形&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;についての知識がすべてのプレイヤーの間で[[共有知識]] (common knowledge) であると仮定されており, これらは[[完備情報ゲーム]] (game with complete information) といわれている. 他方, 不完備情報ゲームはハルサーニ(J.  C. Harsanyi) [2] の定式化によって分析できるようになった. たとえば, 利得関数&amp;lt;math&amp;gt;u_i\, &amp;lt;/math&amp;gt;に関する情報が不完備な場合は, まず有限個のパラメター&amp;lt;math&amp;gt;t_{i1}, t_{i2}, \ldots, t_{ik} \in T_i\, &amp;lt;/math&amp;gt;を導入し, プレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;の利得関数は, そのタイプによって, 有限個の利得関数&amp;lt;math&amp;gt;u_i(\cdot|t_{i1}), u_i(\cdot| t_{i2}), \ldots, u_i(\cdot| t_{ik})\, &amp;lt;/math&amp;gt; (以下, まとめて&amp;lt;math&amp;gt;u_{i}(\cdot|t_{i})\, &amp;lt;/math&amp;gt;と表す. )のうちのどれか1つに定まる, と定式化し直すことにより, &amp;lt;math&amp;gt;u_{i}\, &amp;lt;/math&amp;gt;に関する不完備情報を表現する. この&amp;lt;math&amp;gt;t_i \in T_i\, &amp;lt;/math&amp;gt;をプレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;のタイプという. 各プレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;は自分はどのタイプであるかを知っているが, 他のプレイヤーのタイプは知らない. ただし, 他のすべてのプレイヤーのタイプ&amp;lt;math&amp;gt;t_{-i} = (t_1 , \ldots, t_{i-1}, t_{i+1}, \ldots , t_n )\, &amp;lt;/math&amp;gt;について条件付き確率&amp;lt;math&amp;gt;p_i(t_{-i}|t_i)\, &amp;lt;/math&amp;gt;によって&amp;lt;math&amp;gt;t_{-i}\, &amp;lt;/math&amp;gt;を推測することができるとする. こうして, 新たな戦略形ゲーム&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;G'= (N, S_1, \ldots , S_n;&lt;br /&gt;
                        p_1, \ldots , p_n; T_1, \ldots, T_n;&lt;br /&gt;
                        u_1(\cdot|t_1), \ldots , u_n(\cdot|t_n))\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
がえられる. これを[[ベイジアンゲーム]] (Bayesian game) という. また, 関数&amp;lt;math&amp;gt;s_i : T_i \rightarrow S_i\, &amp;lt;/math&amp;gt;をベイジアンゲームの戦略という. すなわち, プレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;は, 自分のタイプを知ってはいるが, どのタイプであったとしてもそのもとでの行動を指定しておくことがこの場合の戦略である. するとナッシュ均衡は, すべてのプレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;とタイプ&amp;lt;math&amp;gt;t_i\, &amp;lt;/math&amp;gt;および&amp;lt;math&amp;gt;a_{i} \in S_{i}\, &amp;lt;/math&amp;gt; について次の条件をみたす戦略の組&amp;lt;math&amp;gt;s^*=(s^*_1, \ldots , s^*_n)\, &amp;lt;/math&amp;gt;である. この戦略の組を, [[ベイジアンナッシュ均衡]] (Bayesian  Nash equilibrium) という.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\sum_{t_{-i} \in T_{-i}} u_i(s^*(t)|t_i)p_i(t_{-i}|t_i) &lt;br /&gt;
     \   \ge\   \sum_{t_{-i} \in T_{-i}} u_i(s^*_{-i}(t_{-i}), a_i&lt;br /&gt;
                        | t_i)p_i(t_{-i}|t_i)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
ただし, &amp;lt;math&amp;gt;s^*(t)=(s^*_{-i}(t_{-i}), s^*_i(t_i))=(s^*_1(t_1), \ldots, s^*_n(t_n))\, &amp;lt;/math&amp;gt;である. ベイジアンゲームは, 80年代以降, 情報経済学や産業組織論などの新しい分野の発展に大きく貢献している. これについてはたとえば, [1] を参照. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. Gibbons, ''Game Theory for Applied Economists'', Princeton University Press, 1992. &lt;br /&gt;
&lt;br /&gt;
[2] J. C. Harsanyi, &amp;quot;Games with Incomplete Information Played by `Bayesian' Players, parts I, II and III&amp;quot;, ''Management Science'', '''14''' (1967-8), 159-182, 320-334, 486-502. &lt;br /&gt;
&lt;br /&gt;
[3] M. J. Osborne and A. Rubinstein, ''A Course in Game Theory'', MIT Press, 1994.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E9%9D%9E%E5%8D%94%E5%8A%9B%E3%82%B2%E3%83%BC%E3%83%A0%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5032</id>
		<title>《非協力ゲーム理論》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E9%9D%9E%E5%8D%94%E5%8A%9B%E3%82%B2%E3%83%BC%E3%83%A0%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5032"/>
		<updated>2007-07-16T14:12:13Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ひきょうりょくげーむりろん (noncooperative game theory) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[プレイヤー]]間で拘束的な協定をむすぶことが可能なゲームを[[協力ゲーム]], そうでないゲームを非協力ゲームといい, 非協力ゲームを扱う理論を[[非協力ゲーム理論]] (noncooperative game theory) という. 拘束的協定とは, ゲームの外部から付与された拘束力をともなう協定であって, たとえば違反した場合にしかるべきペナルティが課せられるために従わざるをえないような協定である. それゆえ, 協力ゲームでは拘束的協定のもとでプレイヤーたちは提携}{提携} を組んで行動することができるが, 非協力ゲームではプレイヤーたちは個々独立に意思決定し, 束縛されずに自由なコミュニケーションや取り決めをすることが許されている. これらのことは普通モデルに明記されないので注意が必要である. &lt;br /&gt;
&lt;br /&gt;
　フォンノイマン (J. von Neumann) が1928年に[[ミニマックス定理 (ゲーム理論における)|ミニマックス定理]]を証明することによって解決した, ゲーム理論の出発点に位置する[[2人ゼロ和ゲーム]]は最もよく知られた非協力ゲームであり, 勝つか負けるかという完全な利害対立状況を記述するものである([8]). これに対して, ナッシュ (J. F. Nash) が1950年に創始した一般の非協力ゲームでは, 有名な[[囚人のジレンマ]]などにみられるように, 利害は完全に対立するとはかぎらない. そのためゼロ和という条件に縛られないので, 今日, 経済学を中心とする社会科学や生物学などに広く応用されている. 非協力ゲーム理論とは, 普通, このナッシュの理論をいう([5]). &lt;br /&gt;
&lt;br /&gt;
　ナッシュはさらに, 合理的主体間の交渉や契約などの協力行動, つまり, 協力ゲームは, 一般に適切な非協力ゲームに還元して分析するべきであるという方法論上の提案をしたが, これは現在[[ナッシュプログラム]] (Nash program) として知られている([5]). 1994年のノーベル経済学賞は, あとで述べるようにこの方法論が経済分析に果たした貢献が評価されて, ナッシュ, ハルサーニ (J. C. Harsanyi) およびゼルテン (R.Selten) に対して与えられたものである. &lt;br /&gt;
&lt;br /&gt;
　非協力ゲームは,  &amp;lt;math&amp;gt;G=(N; S_1,\ldots ,S_n; u_1,\ldots ,u_n)\, &amp;lt;/math&amp;gt;  のように形式的に表現することができる. このように表現されたゲームを[[戦略形ゲーム]]という. ここに&amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;はプレイヤーの集合, &amp;lt;math&amp;gt;S_i\, &amp;lt;/math&amp;gt;はプレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;の[[戦略 (ゲーム理論における)|戦略]]の集合, &amp;lt;math&amp;gt;u_i\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;S=S_1 \times \cdots \times S_n\, &amp;lt;/math&amp;gt;上で定義されたプレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;の[[フォンノイマン・モルゲンシュテルン効用関数]]である.  &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;とすべての&amp;lt;math&amp;gt;S_i\, &amp;lt;/math&amp;gt;が有限集合であるとき, ゲーム&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;を有限ゲーム, そうでないとき無限ゲームという. また, &amp;lt;math&amp;gt;N=\{1,2\}, \ u_1 (s)+u_2 (s) = 0\ \mbox{ for all } s=(s_1, s_2) \in S_1 \times S_2\, \, &amp;lt;/math&amp;gt; , が成り立つゲーム&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;が[[2人ゼロ和ゲーム]]である. &lt;br /&gt;
&lt;br /&gt;
　非協力ゲームの[[ナッシュ均衡]] (Nash equilibrium) とは, 次のような[[混合戦略]]の組である. &amp;lt;math&amp;gt;\Delta S_i\, &amp;lt;/math&amp;gt;でプレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;の混合戦略の集合をあらわし, 混合戦略の組&amp;lt;math&amp;gt;x=(x_1, \ldots , x_n) \in \Delta S= \Delta S_1 \times\cdots \times \Delta S_n\, &amp;lt;/math&amp;gt; のもとでのプレイヤー&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;の効用の期待値（期待効用）を&amp;lt;math&amp;gt;U_i(x)\, &amp;lt;/math&amp;gt;であらわそう. このとき, 混合戦略の組&amp;lt;math&amp;gt;x^*=(x^{*}_{1}, \ldots , x^*_n ) \in \Delta S\, &amp;lt;/math&amp;gt;がナッシュ均衡であるとは, すべてのプレイヤーiに対して&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;U_i (x^*) \ge U_i (x^*_1 ,\ldots , x^*_{i-1}, x_i, x^*_{i+1},\ldots , x^*_n )\ \mbox{ for all } x_i \in \Delta S_i\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
となることである. このように, ナッシュ均衡においては, 各プレイヤーの戦略は他のすべてのプレイヤーの戦略に対する最適な反応であり, 独立に行動する各プレイヤーは, 外的な拘束力がなくても, 他の戦略に切り替えることなくそこに留まることになる. &lt;br /&gt;
&lt;br /&gt;
　混合戦略まで考えた有限ゲームや, 各&amp;lt;math&amp;gt;S_i\, &amp;lt;/math&amp;gt; がコンパクト凸集合で, 各効用関数&amp;lt;math&amp;gt;u_i\, &amp;lt;/math&amp;gt; が連続かつ&amp;lt;math&amp;gt;x_i\, &amp;lt;/math&amp;gt;に関して準凹であるような無限ゲームがナッシュ均衡をもつことは, ブラウワーや角谷の不動点定理によって証明することができる. また, 2人ゼロ和ゲームのナッシュ均衡は, [[マックスミニ戦略]]と[[ミニマックス戦略]]の組であることも容易に確かめることができる. こうして, ナッシュによる均衡の存在定理は, [[ミニマックス定理 (ゲーム理論における)|ミニマックス定理]]の拡張になっていることがわかる. &lt;br /&gt;
&lt;br /&gt;
　非協力ゲームの研究はその後, シャープレイ (L. S. Shapley) の[[確率ゲーム]] (stochastic game) ([7])やキューン (H. W. Kuhn)の[[展開形ゲーム]] ([4]), 無限回[[繰り返しゲーム]] (repeated game) の[[フォーク定理]] (folk theorem) ([1]), 連続時間上の動学を考える[[微分ゲーム]] (differential game) などの理論展開に続いて, ハルサーニによる[[不完備情報ゲーム]] (game with incomplete information) への拡張([2])やゼルテンの[[完全均衡]] (perfect equilibrium) ([6])などを産出した. さらに80年代に入ってからの[[逐次均衡]] (sequential equilibrium) ([3])という技術的展開も加わって, 産業組織論や情報経済学などの経済学の分野に新しい分析方法を確立し, 重要な研究領域を切り開くことになった. &lt;br /&gt;
&lt;br /&gt;
　また, [[進化的安定戦略]]の名で知られる戦略は, 進化生物学においてナッシュ均衡のひとつの精緻化として生まれたものであり, 逆にこれに影響されて80年代に発展したのが[[進化ゲーム理論]]と呼ばれる非協力ゲーム理論である. 進化ゲーム理論におけるプレイヤーは, 通常のゲームにおけるように, 完全な合理性を備えた意思決定主体ではなく, むしろ思考せずにあらかじめ決められた行動のみを一定の手順でとるオートマトン, ないしアルゴリズムである. 自然界において, 特定の遺伝子が淘汰されずに優勢になっていくように, 進化ゲームでは進化的に安定なアルゴリズム（戦略）が動学的な均衡点になることが知られている. このように, 進化ゲームは合理的推論によらない均衡選択の可能性を示しており, これがきっかけとなって, 90年代以降, プレイヤーの[[限定合理性]] (bounded rationality) と, プレイヤーの[[学習 (ゲーム理論における)|学習]]による均衡選択の研究が精力的になされるようになった. この限定合理的な行動による均衡選択というアイディアの原型は, 実はナッシュ自身が彼の最初の論文の削除された章で述べていたことが知られている. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. Axcelrod, ''The Evolution of Cooperation'', Basic Books, 1984.&lt;br /&gt;
&lt;br /&gt;
[2] J. C. Harsanyi, &amp;quot;Games with Incomplete Information Played by `Bayesian' Players, parts I,II and III,&amp;quot; ''Management Science'', '''14''' (1967-8), 159-182, 320-334, 486-502.&lt;br /&gt;
&lt;br /&gt;
[3] D. M. Kreps and R. Wilson, &amp;quot;Sequential Equilibria,&amp;quot; ''Econometrica'', '''50''' (1982), 863-894.&lt;br /&gt;
&lt;br /&gt;
[4] H. W. Kuhn, &amp;quot;Extensive Games and the Problem of Information,&amp;quot; in ''Contributions to the Theory of Games II,  Annals of Mathematics Studies'', '''28''', H. W. Kuhn and A. W. Tucker,  eds., Princeton University Press, 1953.&lt;br /&gt;
&lt;br /&gt;
[5] J. F. Nash, Jr, ''Essays on Game Theory'', Edward Elgar, 1996&lt;br /&gt;
&lt;br /&gt;
[6] R. C. Selten, &amp;quot;Reexamination of the Perfectness Concept for Equilibrium Points in Extensive Games,&amp;quot; ''International Journal of Game Theory'', '''4''' (1975), 25-55.&lt;br /&gt;
&lt;br /&gt;
[7] L. S. Shapley, &amp;quot;Stochastic Games,&amp;quot; ''Proceedings of the National Academy of Sciences of the United States''}, '''39''' (1953), 1095-1100.&lt;br /&gt;
&lt;br /&gt;
[8] J. von Neumann and O. Morgenstern, ''Theory of Games and Economic Behavior. 3rd ed.,'' Princeton University Press, 1953.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B5%E3%83%9D%E3%83%BC%E3%83%88%E3%83%BB%E3%83%99%E3%82%AF%E3%82%BF%E3%83%BC%E3%83%BB%E3%83%9E%E3%82%B7%E3%83%B3%E3%80%8B&amp;diff=5031</id>
		<title>《サポート・ベクター・マシン》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B5%E3%83%9D%E3%83%BC%E3%83%88%E3%83%BB%E3%83%99%E3%82%AF%E3%82%BF%E3%83%BC%E3%83%BB%E3%83%9E%E3%82%B7%E3%83%B3%E3%80%8B&amp;diff=5031"/>
		<updated>2007-07-16T14:09:16Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【さぽーと・べくたー・ましん (support vector machine) 】'''&lt;br /&gt;
&lt;br /&gt;
　サポート・ベクター・マシン (SVM) は, 判別関数を求める教師付き学習法のひとつである. &lt;br /&gt;
&lt;br /&gt;
　今, &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;個の属性を持ったデータが&amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt;個与えられており,これを,&amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;次元空間&amp;lt;math&amp;gt;\boldsymbol{R}^{N}\, &amp;lt;/math&amp;gt;の点&amp;lt;math&amp;gt;{ }_{1},{ }_{2},\ldots, { }_{M} \in \boldsymbol{R}^{N}\, &amp;lt;/math&amp;gt;と考える. 各点&amp;lt;math&amp;gt;{ }_{j}\ (j=1,2,\ldots,M)\, &amp;lt;/math&amp;gt;は2種類のクラスのいづれか一方に属しており, 対応する2値のラベル&amp;lt;math&amp;gt;y_{j} \in \{-1,+1\}\, &amp;lt;/math&amp;gt;が与えられているとする. このとき, ラベルの値にしたがって点を判別する2クラスの判別問題を考える.&lt;br /&gt;
&lt;br /&gt;
　SVMでは線形関数を用いた判別を行う. &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;次元の法線ベクトルおよび実数&amp;lt;math&amp;gt;b\,\, &amp;lt;/math&amp;gt;で定まる線形関数を&amp;lt;math&amp;gt;f( ) = { }^{T} \ - b\, &amp;lt;/math&amp;gt; とすれば, 与えられたデータおよびラベ:ルにしたがって,&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
f({ }_{j}) = { }_{j}^{T}\ - b \left\{&lt;br /&gt;
\begin{array}{ll}&lt;br /&gt;
 &amp;gt; 0 &amp;amp; \mbox{if}\ \  y_{j} = 1,\\&lt;br /&gt;
 &amp;lt; 0 &amp;amp; \mbox{if}\ \  y_{j} = -1,&lt;br /&gt;
\end{array}&lt;br /&gt;
\right.\quad j=1,2,\ldots,M&lt;br /&gt;
\, &amp;lt;/math&amp;gt;　　　　&amp;lt;math&amp;gt;(1)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
となるベクトルとスカラ&amp;lt;math&amp;gt;b\, &amp;lt;/math&amp;gt;を次に示す最適化問題を解くことで算出する.&lt;br /&gt;
&lt;br /&gt;
　一般的には, 与えられた点全てに対して式 (1) を満たす&amp;lt;math&amp;gt;\,b\, &amp;lt;/math&amp;gt;が存在するとは限らないので, 非負の変数&amp;lt;math&amp;gt;\xi_{j}\ (j=1,2,\ldots,M)\, &amp;lt;/math&amp;gt;を導入し, 次の制約条件&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
 \begin{array}{lll}&lt;br /&gt;
 {\displaystyle  { }_{j}^{T} \ - b + \xi_{j} \geq 1 }&lt;br /&gt;
   &amp;amp; \mbox{if}&amp;amp; y_{j} = 1, \\&lt;br /&gt;
 {\displaystyle  { }_{j} \ - b - \xi_{j} \leq -1 }&lt;br /&gt;
   &amp;amp; \mbox{if}&amp;amp; y_{j} = -1&lt;br /&gt;
\end{array}&lt;br /&gt;
\, &amp;lt;/math&amp;gt;　　　　&amp;lt;math&amp;gt;(2)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
のもと,&amp;lt;math&amp;gt;\xi_{j}\, &amp;lt;/math&amp;gt;の和とのノルムができるだけ小さくなる線形関数を考える. すなわち, 次の二次計画問題を解き&amp;lt;math&amp;gt;\,b\, &amp;lt;/math&amp;gt;を算出する [2].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&amp;lt;table&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;4&amp;quot;&amp;gt; &amp;lt;math&amp;gt;\left| &lt;br /&gt;
\begin{array}{l}&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\end{array} \right.&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;最大化 &amp;lt;/td&amp;gt;&lt;br /&gt;
           &amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\textstyle \frac{1}{2}\| \| \frac{2}{2} + C \ {\sum}_{j=1}^{M} \xi_{j}&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;4&amp;quot;&amp;gt;　　　　&amp;lt;math&amp;gt;(3)\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;制約 &amp;lt;/td&amp;gt;&lt;br /&gt;
           &amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\textstyle &lt;br /&gt;
      { }_{j}^{T} \ - b + \xi_{j} \geq 1,&lt;br /&gt;
         \quad \mbox{if } y_{j} = 1,&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\textstyle&lt;br /&gt;
      { }_{j}^{T} \ - b - \xi_{j} \leq -1,&lt;br /&gt;
         \quad \mbox{if } y_{j} = -1,&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\textstyle&lt;br /&gt;
      \xi_{j} \ge 0, \quad j=1,2,\ldots,M&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
ここで,&amp;lt;math&amp;gt;C\, &amp;lt;/math&amp;gt;はあらかじめ設定された正の定数で, &amp;lt;math&amp;gt;\textstyle \| \|\frac{2}{2}\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;\textstyle {\sum}_{j=1}^{M} \xi_{j}\, &amp;lt;/math&amp;gt;とのバランスをコントロールするパラメータである. また, &amp;lt;math&amp;gt;\textstyle \| \|\frac{2}{2}\, &amp;lt;/math&amp;gt;は正則化項とも呼ばれ, これを小さくすることは判別関数に用いるデータの属性を少なくし, 過学習を防ぐ役割があるとされる [6]. 問題 (3) は, 1ノルムソフトマージンSVMと呼ばれる定式化である.&lt;br /&gt;
&lt;br /&gt;
　通常は,この問題の双対問題を考え最適化を行う [5]. &amp;lt;math&amp;gt;\alpha_{1},\alpha_{2},\ldots,\alpha_{M}\, &amp;lt;/math&amp;gt; を双対変数とすれば, 問題 (3) の双対問題は&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&amp;lt;table&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;4&amp;quot;&amp;gt; &amp;lt;math&amp;gt;\left| &lt;br /&gt;
\begin{array}{l}&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\end{array} \right.&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;最大化 &amp;lt;/td&amp;gt;&lt;br /&gt;
           &amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\textstyle &lt;br /&gt;
      - \frac{1}{2} \sum_{i=1}^{M}\sum_{j=1}^{M}&lt;br /&gt;
         y_{i}y_{j}{ }_{i}^{T}{ }_{j}\alpha_{i}\alpha_{j}&lt;br /&gt;
      + \sum_{j=1}^{M} \alpha_{j}&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;4&amp;quot;&amp;gt;　　　　&amp;lt;math&amp;gt;(4)\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;制約 &amp;lt;/td&amp;gt;&lt;br /&gt;
           &amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\textstyle \sum_{j=1}^{M} y_{j} \alpha_{j}= 0,&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
	&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;0 \leq \alpha_{j} \leq C,\quad j=1,2,\ldots,M&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と書くことができ, これは1本の等式制約と各変数の上下限制約のみの凹二次関数の最大化となる. この特殊構造を用いた最適化アルゴリズム [3, 4] が知られており, データ数&amp;lt;math&amp;gt;(M)\, &amp;lt;/math&amp;gt;が数10万を超えるような大規模問題であっても, 高速に最適化が可能である.&lt;br /&gt;
&lt;br /&gt;
　双対問題 (4) の最適解を&amp;lt;math&amp;gt;\alpha^{*}_{1},\alpha^{*}_{2},\ldots,\alpha^{*}_{M}\, &amp;lt;/math&amp;gt;とすれば,KKT条件より主問題 (3) の最適解&amp;lt;math&amp;gt;^{*},b^{*}\, &amp;lt;/math&amp;gt;とは, &amp;lt;math&amp;gt;\textstyle ^{*} = \sum_{j=1}^{M} \alpha_{j}^{*} y_{j} { }_{j}\, &amp;lt;/math&amp;gt;となる関係があり, さらに&amp;lt;math&amp;gt;0&amp;lt;\alpha_{k}^{*}&amp;lt;C\, &amp;lt;/math&amp;gt;となる添え字を&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;とすれば, &amp;lt;math&amp;gt;b^{*} = { }^{T}_{k} \ ^{*}-y_{k}\, &amp;lt;/math&amp;gt;となることが示される. また, 特に添え字の集合&amp;lt;math&amp;gt;SV=\{j|\alpha_{j}^{*} \not = 0 \}\, &amp;lt;/math&amp;gt;を定義すれば,&amp;lt;math&amp;gt;j \in SV\, &amp;lt;/math&amp;gt;に対応するデータ&amp;lt;math&amp;gt;{ }_{j}\, &amp;lt;/math&amp;gt;をサポート・ベクターと呼ぶ.したがって, 判別関数は双対問題の最適解とサポート・ベクターにより次のように表されることとなる.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt; f( ) = { }^{T} \ ^{*} - b^{*}&lt;br /&gt;
        = \sum_{j \in SV} \alpha_{j}^{*} y_{j}^{T} { }_{j} - b^{*}\, &amp;lt;/math&amp;gt;　　　　　&amp;lt;math&amp;gt;(5)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
さらに, 双対問題 (4) や主問題 (3) は, サポート・ベクター以外を全て取り除いても最適解は不変であり, これらの点はSVMでの判別にはまったく寄与していないことになる.&lt;br /&gt;
&lt;br /&gt;
　SVMの最大の特徴は, 双対問題(4)を応用することで非線形な判別関数を構成できる点にある. 非線形な判別関数を構成するためには, まず, 適当な非線形変換&amp;lt;math&amp;gt;\phi: \boldsymbol{R}^{N} \to {\mathcal F}\, &amp;lt;/math&amp;gt;を使い各データ&amp;lt;math&amp;gt;{ }_{j}\, &amp;lt;/math&amp;gt;をより高い次元の特徴空間&amp;lt;math&amp;gt;{\mathcal F}\, &amp;lt;/math&amp;gt;の元へと射影する. 射影された&amp;lt;math&amp;gt;{\mathcal F}\, &amp;lt;/math&amp;gt;の元&amp;lt;math&amp;gt;\phi({ }_{1}),\phi({ }_{2}),\ldots,\phi({ }_{M})\, &amp;lt;/math&amp;gt;に対して, &amp;lt;math&amp;gt;{\mathcal F}\, &amp;lt;/math&amp;gt;上での線形な判別関数を求めれば, 元の空間で見れば非線形な判別関数を求めたこととなる.&lt;br /&gt;
&lt;br /&gt;
　ここで, 双対問題 (4) に注目すれば,&amp;lt;math&amp;gt;{\mathcal F}\, &amp;lt;/math&amp;gt;上の内積&amp;lt;math&amp;gt;\phi({ }_{i})^{T}\phi({ }_{j})\, &amp;lt;/math&amp;gt;の値のみが得られれば定式化が可能であり, 特徴空間での点&amp;lt;math&amp;gt;\phi({ }_{j})\, &amp;lt;/math&amp;gt;の座標を必ずしも必要としないことが分かる. そこで, SVMではカーネル関数と呼ばれる特殊な関数&amp;lt;math&amp;gt;{\cdot}{\cdot}\, &amp;lt;/math&amp;gt;を用い元のデータ&amp;lt;math&amp;gt;, ' \in \boldsymbol{R}^{N}\, &amp;lt;/math&amp;gt;から直接&amp;lt;math&amp;gt;{\mathcal F}\, &amp;lt;/math&amp;gt;の元&amp;lt;math&amp;gt;\phi(),\phi(')\, &amp;lt;/math&amp;gt;の内積&amp;lt;math&amp;gt;\phi()^{T}\phi(')\, &amp;lt;/math&amp;gt;を算出し, 双対問題の最適化により非線形の判別関数が求められる [1]. よく用いられる代表的なカーネル関数として, 多項式カーネル&amp;lt;math&amp;gt;' = \left( { }^{T}\, ' + c \right)^{d}\,&amp;lt;/math&amp;gt; やRBFカーネル &amp;lt;math&amp;gt;' = \exp\left( -\| \ - ' \|^{2}/ \sigma^{2} \right )\, &amp;lt;/math&amp;gt;, (ただし&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;は自然数のパラメータ, &amp;lt;math&amp;gt;c,\sigma\, &amp;lt;/math&amp;gt; は実数のパラメータである) などがある.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　カーネル関数の値&amp;lt;math&amp;gt;{ }_{i} { }_{j}\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;i-j\, &amp;lt;/math&amp;gt;成分とする&amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt;次の対称行列を&amp;lt;math&amp;gt;K\, &amp;lt;/math&amp;gt;とすれば, &amp;lt;math&amp;gt;K\, &amp;lt;/math&amp;gt;が半正定値行列となるようなカーネル関数をMercerカーネル(あるいは半正定値カーネル)と呼び, このようなカーネル関数であれば,&amp;lt;math&amp;gt;{ }_{i}{ }_{j}=\phi({ }_{i})^{T}\phi({ }_{j})\, &amp;lt;/math&amp;gt;となる特徴空間への変換&amp;lt;math&amp;gt;\phi(\cdot)\, &amp;lt;/math&amp;gt;が存在することが保証される. 多項式カーネルやRBFカーネルはMercerカーネルである [5].また, Mercerカーネルを用いるのであれば, 対応した双対問題は常に凹二次関数の最大化となり, 通常の二次計画問題の解法を用いれば大域的に最適化が可能である.&lt;br /&gt;
&lt;br /&gt;
　すなわち, 双対問題の最適解を&amp;lt;math&amp;gt;\alpha_{j}^{*}\, &amp;lt;/math&amp;gt;とすれば, カーネル関数を用いた場合には, 次の非線形な判別関数が求められることとなる.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;f() = \sum_{j \in SV}\alpha_{j}^{*} y_{j}&lt;br /&gt;
                       { }_{j} - b^{*}.\, &amp;lt;/math&amp;gt;　　　　　&amp;lt;math&amp;gt;(6)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　すなわち, 判別関数&amp;lt;math&amp;gt;f(\cdot)\, &amp;lt;/math&amp;gt;は, サポート・ベクター &amp;lt;math&amp;gt;{ }_{j}\ (j \in SV)\, &amp;lt;/math&amp;gt;に対応するカーネル関数&amp;lt;math&amp;gt;{ }_{j}\, &amp;lt;/math&amp;gt;の重ね合せとして算出されると見ることができる.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] B. E. Boser, I. M. Guyon, and V. N. Vapnik, &amp;quot;A training algorithm for optimal margin classifiers,&amp;quot; in ''Proceedings of the fifth annual workshop on Computationa learning theory'', USA, 144-152, 1992.&lt;br /&gt;
&lt;br /&gt;
[2] C. Cortes and V. Vapnik, &amp;quot;Support-vector networks,&amp;quot; ''Machine learning'', '''20''' (1995), 273-297.&lt;br /&gt;
&lt;br /&gt;
[3] T. Joachims, &amp;quot;Making large-scale support vector machine learning practical,&amp;quot; in ''Advances in Kernel Methods'', B. Sch&amp;amp;ouml;lkopf, C. Burges, and A. Smola, eds., The MIT Press, 169-184, 1999.&lt;br /&gt;
&lt;br /&gt;
[4] J. C. Platt, &amp;quot;Fast training of support vector machines using sequential minimal optimization,&amp;quot; in ''Advances in Kernel Methods'', B. Sch&amp;amp;ouml;lkopf, C. Burges, and A. Smola, eds., The MIT Press, 185-208. 1999.&lt;br /&gt;
&lt;br /&gt;
[5] J. Shawe-Taylor and N. Cristianini, ''Kernel Methods for Pattern Analysis'', Cambridge University Press, 2004.&lt;br /&gt;
&lt;br /&gt;
[6] V. N. Vapnik, ''The nature of statistical learning theory'', Statistics for Engineering and Information Science, Springer-Verlag, 2000.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E8%AB%96%E7%90%86%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%9F%E3%83%B3%E3%82%B0%E3%80%8B&amp;diff=5030</id>
		<title>《論理プログラミング》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E8%AB%96%E7%90%86%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%9F%E3%83%B3%E3%82%B0%E3%80%8B&amp;diff=5030"/>
		<updated>2007-07-16T14:03:59Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ろんりぷろぐらみんぐ (logic programming) 】'''&lt;br /&gt;
&lt;br /&gt;
　論理とは「推理の仕方, 論証の筋道」を意味し, 論理学とは「正しい認識を得るための規範となるべき思惟の法則及び形式を研究する学問一般」をいう. その中で''記号論理学'' (symbolic logic) とは「論理の対象となる思考の終局的要素とその基本的な関係を数学の記号に類するもので表現し, 論理的操作を数学の演算に類する操作で行う論理学」であって, 論理計算, 数学的論理学と大体同義であるとされる [1]. 従って, 記号論理は[[論理推論]] (logical reasoning) 分野に属し, その研究はわれわれの興味の対象要素(思考の終局的要素)と対象間の論理的関係を操作し, 論証の道筋を検証し, 正しい認識を得ることに関する方法論の探究を意味する. &lt;br /&gt;
&lt;br /&gt;
　このことはわれわれが計算機を使って計算を行う, 問題を解く, あるいは, 対象を計算機で制御するなどの諸計算行為と多くの類似点をもつ. しかし, こうした (数値的) 計算行為には, 使用するプログラム言語のもつ諸規則 (文法など) や計算順序などを勘案しつつアルゴリズムを構築しプログラミングを行うことが要求されるため, こうした方法では, 知識としての論理の対象となる思考の終局的要素とその基本的な関係を, 直接表現し利用することは, 従来, 困難であった. 近年, 知識工学 (knowledge engineering) と呼称され, 知識を計算行為の対象, すなわち知識処理を対象とする分野が展開されてきた. これは知識を約束に従って記号化し, いわゆる知識ベースとして計算機の中にこれを蓄え, これらを利用しつつ, 対象問題 (ここでは命題) を解こうとする研究分野であって, 記号論理学がその理論的基礎を成す. &lt;br /&gt;
&lt;br /&gt;
　さて, 知識工学では, 理論・実用の両面にわたって特に多くの研究やシステム開発が, 一階述語論理(first-order predicate logic)を利用して行われている. 一階述語論理に基づく場合, 知識は記号列で表現され, 知識の操作は, 短い列から長い列を生成する構文的規則(syntax), 与えられた記号列を解釈する意味論的規則 (semantics), 構文的規則に基づく推論規則 (rule of inference) および系全体に関する公理 (axiom) に基づいて行われる. これは例えて言えば, アルファベットから単語が構成され, 単語群から文節が構成され文節群から文が構成される仕組である. 文法に相当するものとして構文的規則があり, 文字列としての単語や文節, 文章の意味解釈に相当する操作が意味論的規則に則って用意される. &lt;br /&gt;
&lt;br /&gt;
　記号論理的に見ると一階述語論理の記号列は, 論理記号 (結合子, 限定記号など) と非論理記号 (定数, 変数, 述語, 関数) からなり, 非論理記号に固有の意味を与えたとき, その解釈は一意的に決まる. このことを, 一階言語を定めたという. またここで言う述語 (predicate) は, その引き数である定数や変数の状態や性状 (つまり, ～である；～する, など) を記述する. 述語の解釈としての論理的意味付けには, ブール代数では0か1, 二値論理では真か偽, ファジィ論理では数値的真理値や言語的(linguistic)真理値を割り当てる. 変数や定数, さらに, 変数や定数をすべての引数に代入した関数を項 (term) と呼ぶ. &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;変数の述語の各引数に項を代入した論理式を原子論理式 (atomic formula) といい, これらを論理記号で結合したものも論理式という. さらに, 論理式同士を論理記号で結合したものも論理式という. 代表的論理式同士の関係を意味づけしたものがいわゆる真理値表 (truth table) を構成する. &lt;br /&gt;
&lt;br /&gt;
　論理式 &amp;lt;math&amp;gt;\phi\, &amp;lt;/math&amp;gt; を真とするある解釈と項への値割り当てが存在するならば, この論理式は充足可能 (satisfiable) であるという. さらに論理式の集合&amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; を充足する任意の解釈と割り当てがある論理式 &amp;lt;math&amp;gt;\phi\, &amp;lt;/math&amp;gt; を充足するとき, この論理式 &amp;lt;math&amp;gt;\phi\, &amp;lt;/math&amp;gt; は論理式集合 &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; の論理的帰結と呼ばれる. ゲーデルの完全性定理 (completeness theorem) によれば, ある論理式 &amp;lt;math&amp;gt;\phi\, &amp;lt;/math&amp;gt; が論理式集合 &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; の論理的帰結であるならば, 論理式集合 &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; からその論理式 &amp;lt;math&amp;gt;\phi\, &amp;lt;/math&amp;gt; を導く有限の長さの記号列を生成できる. これは論理式集合から有限回のステップで機械的に論理的帰結を導くことができるアルゴリズムの存在を言明している. ここから一階述語論理の推論規則として唯一定義されるモーダス・ポーネスが提示される. すなわち, &amp;quot;二つの論理式 &amp;lt;math&amp;gt;\phi\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;\psi\, &amp;lt;/math&amp;gt; があり, 論理式 &amp;lt;math&amp;gt;\phi\, &amp;lt;/math&amp;gt; が論理式集合 &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; の論理的帰結かつ「&amp;lt;math&amp;gt;\phi\, &amp;lt;/math&amp;gt; ならば &amp;lt;math&amp;gt;\psi \, &amp;lt;/math&amp;gt;」も &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; の論理的帰結ならば, &amp;lt;math&amp;gt;\psi\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; の論理的帰結である. &amp;quot;これは連続値を扱う[[ファジィ推論]] (fuzzyinference) [3] の場合にも前提, 条件および近似的帰結として成り立つ推論規則である. &lt;br /&gt;
&lt;br /&gt;
　次に, [[論理プログラミング]] (logic programming) において重要な「証明」の概念を述べる. 論理式の列 &amp;lt;math&amp;gt;\phi_\iota (\iota=1, 2, . . n)\, &amp;lt;/math&amp;gt; が存在し, 全ての &amp;lt;math&amp;gt;\phi_\iota\, &amp;lt;/math&amp;gt; が公理か, 論理式集合 &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; の元か, または列のそれ以前に位置する他の論理式からモーダ・ポーネスによって導かれたか, のいずれかが成り立つとする. この時, 論理式の列 &amp;lt;math&amp;gt;\phi_\iota\, &amp;lt;/math&amp;gt; は論理式 &amp;lt;math&amp;gt;\phi_n\, &amp;lt;/math&amp;gt; の証明と呼ばれ, 論理式 &amp;lt;math&amp;gt;\phi_n\, &amp;lt;/math&amp;gt; は論理式集合 &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; から証明可能である, といわれる. &lt;br /&gt;
&lt;br /&gt;
　以上の議論の結果として形式的知識表現としての論理式はプログラムに, その推論過程としての証明は計算に対応することが理解できる. 現実的視点から一階述語論理のある制限されたクラスのみを対象としてプログラミング環境を実現したものを論理プログラミングという. そのような制限されたクラスとして[[ホーン節]]がある. 一般に論理プログラミングでは, 与えられた論理式の否定(&amp;lt;math&amp;gt;\phi_1\, &amp;lt;/math&amp;gt;)からトップダウン的またはボトムアップ的に[[導出原理]]を利用して演繹的に空節(&amp;lt;math&amp;gt;\phi_n\, &amp;lt;/math&amp;gt;)を導くという証明の手続きが利用される. このようにして &amp;lt;math&amp;gt;\phi_1\, &amp;lt;/math&amp;gt; の充足不可能性を証明することによって, 元の論理式が真であることを証明するのである. 論理プログラミングにおける代表的プログラム言語がPROLOGであり, わが国の第５世代コンピュータ計画をはじめとして知識工学, 人工知能分野に多くの影響を与えている. &lt;br /&gt;
&lt;br /&gt;
　論理プログラミングの直接的応用としてはパズル, 定理証明などが知られているが, その実際的応用はいわゆる各種[[エキスパートシステム]] (expert system) の構築にある. エキスパートシステムでは, 事実や専門家の知識を論理式, 特にホーン節形式で表現して知識ベースとして蓄え, 知識ベースの内容を論理式集合 &amp;lt;math&amp;gt;\Gamma\, &amp;lt;/math&amp;gt; として, 与えられた問題 (論理式) に対して論理的帰結を自動的に得る手続きを論理プログラミングが受け持つ [4]. 論理プログラミングによる証明の解釈そのものが, エキスパートシステムにおいては人間への自動説明機能となる. このようなエキスパートシステムの持つ宿命的課題は必要十分な知識をいかに獲得するかである. [[知識獲得]] (knowledge acquisition) の方法として人手による方法ばかりではなく自律的学習機能を導入する研究もなされている. さらに, 実用上の問題として蓄えた知識の上の推論の非単調性 (non-monotonicity) の問題, すなわち新しく入力された知識が以前の知識と矛盾するような結果を引き起こす現象がしばしば起こることが指摘されている. これに対する有力な方法は未だに確立されていないが, 実際にはこのような場合でも[[非単調推論]] (non-monotonic reasoning) と呼ばれる方法が利用される. &lt;br /&gt;
&lt;br /&gt;
　論理プログラミングが人の論理的知識を蓄積し利用しようとするものであるのに対して, [[定性推論]] (qualitative inference) は物理法則に基づいた因果関係を基本として, 対象とする系の動的挙動を定性的に推論し, 理解しようとする [5]. 通常は微分方程式で表わされ解析され理解されるところの物理現象を, 素朴に理解しようとするものと考えることができるが, 計算機の数値計算能力に依存する部分がある. 定性推論は物理現象に対して素直に抱く疑問「なぜ?」, 「こうなったらどうなる?」に答えるのに有効な推論方式と考えられる. &lt;br /&gt;
&lt;br /&gt;
　ここで取り上げた伝統的な記号論理的推論に基づく論理プログラミング, 曖昧さを導入したファジィ推論, あるいは知識の直接利用を狙ったエキスパートシステム, さらには, 物理現象の動的振る舞いを対象とする定性推論を有機的に結合することにより, 真に有効な人工知能が実現されることを期待したい. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] 新村出編, 『広辞苑(第5版)』, 岩波書店, 1998. &lt;br /&gt;
&lt;br /&gt;
[2] 森下真一, 『知識と推論』, 情報数学講座10, 共立出版, 1997. &lt;br /&gt;
&lt;br /&gt;
[3] 水本雅晴, 『ファジィ理論とその応用』, サイエンス社, 1988. &lt;br /&gt;
&lt;br /&gt;
[4] 安部憲広, 滝寛和, 『エキスパート・システム入門』, 共立出版, 1987. &lt;br /&gt;
&lt;br /&gt;
[5] 溝口文雄, 古川康一, 安西祐一郎, 『定性推論』, 知識情報処理シリーズ別巻1, 共立出版, 1989.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%88%B6%E7%B4%84%E5%85%85%E8%B6%B3%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=5029</id>
		<title>《制約充足問題》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%88%B6%E7%B4%84%E5%85%85%E8%B6%B3%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=5029"/>
		<updated>2007-07-16T14:00:22Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【せいやくじゅうそくもんだい (constraint satisfaction problem) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[制約充足問題]] (constraint satisfaction problem, CSP) は,一般に, &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; 個の変数 &amp;lt;math&amp;gt;X_i\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(i = 1, 2, \ldots, n)\, &amp;lt;/math&amp;gt;と各変数 &amp;lt;math&amp;gt;X_i\, &amp;lt;/math&amp;gt; がとり得る有限個の値から成る領域 &amp;lt;math&amp;gt;D_i\, &amp;lt;/math&amp;gt;,及び &amp;lt;math&amp;gt;m\, &amp;lt;/math&amp;gt;個の制約&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;C_j(X_{j_1},X_{j_2}, \ldots, X_{j_{t_j}})   \subseteq D_{j_1} \times D_{j_2} \times \cdots \times D_{j_{t_j}}  (j = 1, 2, \ldots, m)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で定義される.制約 &amp;lt;math&amp;gt;C_j\, &amp;lt;/math&amp;gt; は,変数 &amp;lt;math&amp;gt;X_{j_1}, X_{j_2}, \ldots, X_{j_{t_j}}\, &amp;lt;/math&amp;gt; に対する &amp;lt;math&amp;gt;t_j\, &amp;lt;/math&amp;gt; 項制約であり,これらの変数が同時にとることのできる値の組の集合である.ここで, すべての制約を満たす値の組&amp;lt;math&amp;gt;(d_1, d_2, \ldots, d_n) \in D_1 \times D_2 \times \cdots \times D_n\, &amp;lt;/math&amp;gt;をCSPの解と呼び, (存在するならば) 一つ, あるいはすべての解を求めることがCSPの目的である.&lt;br /&gt;
&lt;br /&gt;
　なお, 人為的に新たな変数を加えることで,多項制約を複数の二項制約で記述することができ,制約を二項制約に限定した形で定式化することも多く, 二項CSP (binary CSP) と呼ばれる.また, 上の定義では, 制約は値の組の集合で与えられるが, それらすべてを陽に記述する必要はなく,等式や論理式などを用いて表現することもできる.&lt;br /&gt;
&lt;br /&gt;
　CSPの高い定式化能力を活かして汎用問題解決器 (general problem solver) の開発が可能である.すなわち, 与えられた問題をCSPとして定式化し, その解を求めることで元の問題を解くことができる.この考えは[[制約プログラミング]]に通ずるものである. 制約プログラミングでは, 制約充足はシステムが行うものとし, それゆえ, 制約を記述することのみがプログラマ (ユーザ) の仕事であり, それ自体がプログラミングと考えられる [1].&lt;br /&gt;
&lt;br /&gt;
　CSPの解法としては,バックトラッキング法 (backtracking method) が代表的である. これは制約違反が起こらないように, ある順序に従って, 変数への値の割当てを順次行っていく方法であり, 木探索 (tree search) とも呼ばれる.変数に値を割当てる際, すべての制約を満たす値が存在しなければ, 一つ前の変数に戻ってその値を取消し, 他の値を試みる (バックトラック) という操作を繰り返す. この方法により, CSPを厳密に解くことが可能であるが, バックトラックが頻繁に発生する場合には効率的ではない. そこで, 木探索を効率的に行うための手法が種々提案されている. フォワードチェッキング (forward checking) は, 変数に値を割当てる度に, まだ値が割当てられていない変数の値域から, 制約に矛盾する値を予め削除しておく方法である. このとき, ある変数の値域が空になれば, 木探索を進めることなく, 現在の割当てが解の一部とはなり得ないと結論づけられる. このように, 制約に矛盾する値を変数の値域から削除する方法は, 一般に[[制約伝播]] (constraint propagation) と呼ばれ, 問題縮小のための前処理としても用いられる. また, バックジャンピング (backjumping) では, 木探索において変数に値を割当てる際, そのすべての値が, 変数 &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; 以前に値が割当てられた変数と制約矛盾を起こす場合, 一つ前の変数に戻るのではなく, 変数 &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt; まで戻ってその値を変更する. いずれも無駄な探索を防ぐために枝刈りを行うものであり, この他, バックマーキング (backmarking) やバックチェッキング (backchecking) などの手法が提案されている. また, バックトラックの数は, 値を割当てる変数の順序や変数に割当てる値の順序に依存する. これらの順序を発見的手法を用いて定める方法も提案されている [3].&lt;br /&gt;
&lt;br /&gt;
　上述の手法を用いることにより, 多少の探索の効率化が可能であるが, CSPが解を持つかどうかを決定する問題はNP完全であり, 多項式時間でCSPを(厳密に)解くアルゴリズムは存在しないと考えられる. そこで, バックトラックなしの木探索で(すなわち多項式時間で)解を一つ求めることができるCSPの部分クラスが,&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-整合 (&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-consistency) や &amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-木 (&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-tree) といった概念を用いて定義されている [2, 3].&lt;br /&gt;
&lt;br /&gt;
　CSPに対する[[近似アルゴリズム]]の研究も数多くなされている.その多くは,すべての制約を満たすとは限らない全変数の値の組 &amp;lt;math&amp;gt;(d_1, d_2, \ldots, d_n)\, &amp;lt;/math&amp;gt; に対して, 値の変更を繰り返していくことで解を求めようとするものであり, 反復改善法 (iterative improvement) や山登り法 (hill climbing method) などと呼ばれている.厳密性は保証されないが, 実用上, 非常に有効であることが計算実験により確かめられている. これらの最も初期のものとしては, MCHC法 (min-conflict hill climbing) が挙げられる. これは,制約に違反している変数を一つ任意に選び, その値を制約違反数が最も少なくなる値に変更するという操作を, どの変数の値を変更しても制約違反数を減らすことができなくなるまで繰り返すものである. もちろんこれだけでは高い性能は望めず, 初期割当てを変えて何度か試行を繰り返すなどの工夫が必要である. ニューラルネットワーク (neural network) による近似解法の研究も比較的古く, 代表的なものとして GENET と呼ばれるものがある. その他多数の手法が提案されており, アニーリング法 (simulated annealing) や遺伝アルゴリズム (genetic algorithm) など, 組合せ最適化問題に対する一般的な枠組みとして近年盛んに研究されている, メタ戦略 (meta-heuristics) の適用も行われている [3].&lt;br /&gt;
&lt;br /&gt;
　制約充足最適化問題 (constraint satisfaction optimization problem, CSOP) は, 解 &amp;lt;math&amp;gt;(d_1, d_2, \ldots, d_n) \in S\, &amp;lt;/math&amp;gt; に対してその評価値を定める関数 &amp;lt;math&amp;gt;f: S \rightarrow Z\, &amp;lt;/math&amp;gt; が与えられ, それを最小化(あるいは最大化)する問題である(ここで, &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; は解集合, &amp;lt;math&amp;gt;Z\, &amp;lt;/math&amp;gt; は整数集合). CSOPはCSPの拡張であり, スケジューリング問題など多くの現実問題を含む. CSOPの厳密解法としては, 分枝限定法が一般的である. 基本的には CSP のバックトラッキング法と同じであり, 無駄な探索を省くため, いかに効率良く枝刈りを行うかが重要となる.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] 渕一博 監修, 溝口文雄, 古川康一, J-L. Lassez 編, 『制約論理プログラミング』, 1989.       &lt;br /&gt;
&lt;br /&gt;
[2] 西原清一, 「制約充足問題の基礎と展望」, 『人工知能学会誌』, '''12''' (3) (1997), 351-358.&lt;br /&gt;
&lt;br /&gt;
[3] E. Tsang, ''Foundations of Constraint Satisfaction'', Academic Press, 1993.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%95%E3%82%A1%E3%82%B8%E3%82%A4%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5028</id>
		<title>《ファジイ理論》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%95%E3%82%A1%E3%82%B8%E3%82%A4%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5028"/>
		<updated>2007-07-16T13:56:39Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ふぁじいりろん (fuzzy theory) 】'''&lt;br /&gt;
&lt;br /&gt;
　1964年L. A Zadehが通常の集合を一般化した[[ファジイ集合]] (fuzzy set) を導入したことに始まる ( [7] ). データの曖昧さや制約の厳しさの程度を表現できるもので, ORと融合して最適化等での使用に適している. &lt;br /&gt;
&lt;br /&gt;
　通常の集合はその帰属性が0または1の2値（属するとき1, 属さないとき0で特性関数と呼ばれる）で表されるのに対し, ファジイ集合はこれを一般化して帰属性を区間&amp;lt;math&amp;gt;[0,1]\, &amp;lt;/math&amp;gt;の値で表す. 完全に属するとき1, 属さないとき0という値をとる帰属度関数と呼ばれる関数で表現される. 関数値が大きいほど帰属性が高いことになる. すなわち, 全体集合&amp;lt;math&amp;gt;\mbox{T}\, &amp;lt;/math&amp;gt;（これは通常の集合）の各要素 &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; とその帰属度関数値&amp;lt;math&amp;gt;g(x)\, &amp;lt;/math&amp;gt;のペア&amp;lt;math&amp;gt;\{(x,g(x))|x\in T\}\, &amp;lt;/math&amp;gt; として表記される. 人間の主観などにおけるあいまいさを定量化するために考えられたのであるが, いろいろな分野に応用されている．例えば若いという概念は年齢としてどこからが若くてどこからが若くないかがはっきりしないのでファジイ概念である. 主観により違うが&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;を年齢とすると例えば次のような帰属度関数&amp;lt;math&amp;gt;\mu_{\boldsymbol {A}}(x)\, &amp;lt;/math&amp;gt;で表される.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mu_{\boldsymbol {A}}(x) = &lt;br /&gt;
              \left\{ \begin{array}{cll}&lt;br /&gt;
                1       &amp;amp; \mbox{if} &amp;amp; 0 \leq x \leq 20,\\&lt;br /&gt;
           (50-x)/30    &amp;amp; \mbox{if} &amp;amp; 20 &amp;lt; x &amp;lt; 50,\\&lt;br /&gt;
                0       &amp;amp; \mbox{if} &amp;amp; 50 \leq x,\\&lt;br /&gt;
                      \end{array} \right.&lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　これは20歳までは確実に若いといえるがそれを超えると徐々に若いと言えない度合いが増え, 50歳以上は若いとは言えないということになる. 人間の先験的知識を用いる[[ファジイ論理]] (fuzzy logic)が制御に応用され, ファジイ洗濯機などの電化製品や仙台の地下鉄などの木目細かい制御の実現に役立てられ, ファジイ制御と呼ばれている. &lt;br /&gt;
&lt;br /&gt;
　ORとの融合は'''ファジイ数理計画''' (特にファジイ線形計画) を除いて最近始まったばかりである. ファジイ環境下での意思決定は満足度という概念を表す帰属度関数を考えることにより, 制約条件と目的関数を同様に扱うもので, L.A.Zadehが初期の頃より考えていた. 線形不等式&amp;lt;math&amp;gt;\Sigma_{j=1}^{n}a_{j}x_{j}\leq b\, &amp;lt;/math&amp;gt; を例にあげれば, 満足度を示す以下のような帰属度関数&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;m_{C}(\Sigma_{j=1}^{n}a_{j}x_{j})=&lt;br /&gt;
\left\{ \begin{array}{ll}&lt;br /&gt;
    1       &amp;amp;(\Sigma_{j=1}^{n}a_{j}x_{j}\leq b) \\&lt;br /&gt;
    1-(\Sigma_{j=1}^{n}a_{j}x_{j}-b)/d &amp;amp; (b&amp;lt;\Sigma_{j=1}^{n}a_{j}x_{j}\leq b+d)\\&lt;br /&gt;
    0       &amp;amp; (\Sigma_{j=1}^{n}a_{j}x_{j}&amp;gt;b)                &lt;br /&gt;
  \end{array} \right.&lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が'''ファジイ制約'''である. また目標値&amp;lt;math&amp;gt;z_{0}\, &amp;lt;/math&amp;gt;へどれだけ到達したかを示す満足度で表される'''ファジイ目標'''はやはり１次の目的関数&amp;lt;math&amp;gt;z=\Sigma_{j=1}^{n}c_{j}x_{j}\, &amp;lt;/math&amp;gt;を考えると, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;m_{G}(\Sigma_{j=1}^{n}c_{j}x_{j})=&lt;br /&gt;
\left\{ \begin{array}{ll}&lt;br /&gt;
    1       &amp;amp;(\Sigma_{j=1}^{n}c_{j}x_{j}\geq z_{0}) \\&lt;br /&gt;
    (\Sigma_{j=1}^{n}c_{j}x_{j}-z_{1})/(z_{0}-z_{1}) &amp;amp; (z_{0}&amp;gt;\Sigma_{j=1}^{n}c_{j}x_{j}\geq z_{1})\\&lt;br /&gt;
    0       &amp;amp; (\Sigma_{j=1}^{n}c_{j}x_{j}&amp;lt;z_{1})            &lt;br /&gt;
  \end{array} \right.&lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と書かれる. これら幾つかのファジイ制約とファジイ目標の下でその最小満足度を最大にする&amp;lt;math&amp;gt;{\mathbf x}=(x_{j})\, &amp;lt;/math&amp;gt;を求めるという形式にファジイ数理計画をモデル化できる. &lt;br /&gt;
&lt;br /&gt;
　意思決定との関係で, '''ファジイ動的計画'''もBellman, Zadeh([1])で初期から考えられていた. ファジイと確率とは一見アナロジーがあり, 実際確率計画とファジイ数理計画との間には対比されるような概念が多く見られる. 上記のファジイ制約と機会制約条件などがその例であり, どちらも少しの制約の違反は認めるものである．実際, '''可能性'''と確率とはよく混同されるが, 可能性は物事の生起能力に関するもので, 確率は頻度に関するものである．Zadeh は違いの例として, ある人が朝何個卵を食べるかは確率的 （統計的） であり, 何個食べることができるかは別であるとしている. 最近は, '''ファジイ数''', '''ファジイ関係''', あるいは'''ファジイランダム変数'''なども最適化に導入され, 連続変数の最適化だけではなく, '''ファジイ組合せ最適化'''などの研究も行われている. [[ファジイ数]] (fuzzy number) は通常の数をファジイ概念化したものであり, モデルを記述する係数の不確実性を表している. ファジイ関係はスケジューリングにおける先行関係のファジイ概念化として用いられている. また, ファジイランダム変数はいわば実現値がファジイ数であるようなもので, ファジイ要素とランダム要素が混在するモデルを考えるのに有効である. これらを総称して[[ファジイ最適化]] (fuzzy optimization) と呼んでいる. ここではファジイ理論とORの関係を中心に紹介したが, [[ソフトコンピューティング]]とも関係している. ファジイ理論は, 集合論ばかりでなく, 数学全般に広がってきており, ますますORに用いられるファジイ概念が出てくると思われる.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. E. Bellman and L. A. Zadeh, &amp;quot;Decision Making in a Fuzzy Environment&amp;quot;, ''Management Science'', '''17''' (1970), 141-164.&lt;br /&gt;
&lt;br /&gt;
[2] 乾口雅弘, 「多様化時代の数理計画　第５回　確率計画法　VS　可能性計画」, 『オペレーションズ・リサーチ』, '''41''' (1996), 641-645.&lt;br /&gt;
&lt;br /&gt;
[3] H. Ishii and M. Tada, &amp;quot;Single Machine Scheduling Problem with Fuzzy Precedence Relation&amp;quot;, ''European Journal of Operational Research'', '''87''' (1995), 284-288. &lt;br /&gt;
&lt;br /&gt;
[4] A. Kaufmann and M. M. Gupta, ''Introduction to Fuzzy Arithmetic* Theory and Application'', Van Nostrand Reinhold, New York, 1984.&lt;br /&gt;
&lt;br /&gt;
[5] 坂和正敏, 『ファジイ理論の基礎と応用』, 森北出版, 1991.&lt;br /&gt;
&lt;br /&gt;
[6] 坂和正敏, 石井博昭, 西崎一郎, 『ソフト最適化』, 朝倉書店, 1995.&lt;br /&gt;
&lt;br /&gt;
[7] L. A. Zadeh, &amp;quot;Fuzzy Sets&amp;quot;, ''Information and Control'', '''8''' (1965), 338-353.　&lt;br /&gt;
&lt;br /&gt;
[8] N. Watanabe, &amp;quot;Fuzzy Random Variables and Statistical Inferences,&amp;quot; 『日本ファジイ学会誌』, '''8''' (1996), 126-135.　　&lt;br /&gt;
&lt;br /&gt;
[9] 菅野道夫, 室伏俊明, 『ファジイ測度』, 日刊工業新聞社, 1993.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%A1%E3%82%BF%E3%83%92%E3%83%A5%E3%83%BC%E3%83%AA%E3%82%B9%E3%83%86%E3%82%A3%E3%82%AF%E3%82%B9%E3%80%8B&amp;diff=5027</id>
		<title>《メタヒューリスティクス》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%A1%E3%82%BF%E3%83%92%E3%83%A5%E3%83%BC%E3%83%AA%E3%82%B9%E3%83%86%E3%82%A3%E3%82%AF%E3%82%B9%E3%80%8B&amp;diff=5027"/>
		<updated>2007-07-16T13:52:59Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【めたひゅーりすてぃくす (meta-heuristics) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[メタヒューリスティクス]] (meta-heuristics) とは組合せ最適化問題に対しての, 発見的解法の枠組みであり, 従来の数理的, 分析的手法に基づく厳密解法に対し, ある暫定解からより良い解を発見的に探索するための方法論である. 1) 個々の問題の性質に依拠しないより包括的な枠組みである, 2) 最適解を求めることではなく, より良い解を現実的な時間で求めることを目的とする, といった特徴が挙げられる. メタヒューリスティクスに含まれる多くの手法は局所探索法 (local search) を元にしているが, 局所最適解で探索が終了してしまうという欠点を補うためのさまざまな工夫がなされている. &lt;br /&gt;
&lt;br /&gt;
　[[多スタート局所探索]] (multi start local search) は適当な方法で生成した初期解からの局所探索法を繰り返し行うことにより, 改善された局所最適解を求めるものである. &lt;br /&gt;
&lt;br /&gt;
　[[可変近傍法]] (variable neighborhood search) は複数の近傍を定義し, 暫定解 （それまでに得られた最善解） に対しある近傍から一つ初期解を選択し, その解に対して局所探索法を適用するという手順を繰り返す. この反復において暫定解が更新されたか否かによって初期解を選択するための近傍を変える点に特徴がある. &lt;br /&gt;
&lt;br /&gt;
　[[アニーリング法]] (simulated aneeling) は局所探索法の実行過程に確率的な振る舞いを加え局所最適解に陥らないようにしたアルゴリズムであり, Kirkpatrickらによって提案された [2]. アニーリング法では改悪の方向への移行を確率&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;で受け入れる. &amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;は温度&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;と呼ばれる制御パラメータを含む関数で定義され, 目的関数が改悪される度合が大きくなれば小さくなるように定義される. 一般に用いられるのは現在の目的関数値をc, 変更にともなう変化量を&amp;lt;math&amp;gt;\delta c\, &amp;lt;/math&amp;gt;とすると, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;P=\exp (t (c+\delta c)/c)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と定義され, &amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;を徐々に小さくすることによって, 探索の初期の段階では広い領域を探索し, 後期では探索が最適解に落ち着くことをねらっている. &lt;br /&gt;
&lt;br /&gt;
　[[タブー探索]]　(tabu search)　は局所探索法において局所最適解から脱出するため, 近傍内の最良解（改悪解であっても）へも移行するという操作を加えたものである [3, 4] . 一つの局所最適解とその近傍のみの移行という繰り返しを避けるために, 現在までの移行の履歴を保持し, 移行に制約を設ける. この制約をタブーという. またタブーにより良い最適解への移行を妨げる場合があるのでタブー保有期間と呼ばれる一定期間を経るとタブーは解消される. これにより局所最適解に陥ることなく広範囲の最適解を探索することが可能になる. &lt;br /&gt;
&lt;br /&gt;
　[[遺伝アルゴリズム]] (genetic algorithm) は生物の形質遺伝による進化を組合せ最適化問題における解の進化, すなわち目的関数値を向上させることに利用した解法である [6]. まず候補解を記号列として表現したものを遺伝子と名付け, これらの遺伝子からなる集団に対し1) 次世代に子孫を残す解を選択し (選択), 2) &amp;lt;math&amp;gt;2\, &amp;lt;/math&amp;gt;つの親の遺伝子より子の遺伝子を生成し (交叉), 3) 遺伝子の一部を一定の確率で変化させ (突然変異), 4) 劣っている解は集団より除去する (淘汰), という操作を繰り返し行う. 交叉において遺伝子の特徴がどのように次の世代に遺伝していくかということは[[スキーマ定理]] (scheme theorem) によって確率的に示されている [5]. ここでスキーマ&amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt;とは遺伝子を2進数で表現したときの部分列であり, その次元を&amp;lt;math&amp;gt;o(H)\, &amp;lt;/math&amp;gt;, 定義長を&amp;lt;math&amp;gt;\delta(H)\, &amp;lt;/math&amp;gt;とし, &amp;lt;math&amp;gt;m(H,t)\, &amp;lt;/math&amp;gt;を次世代&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;でスキーマ&amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt;を含む個体の数, &amp;lt;math&amp;gt;f(H)\, &amp;lt;/math&amp;gt;スキーマ&amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt;を含む個体の適応度の平均値, &amp;lt;math&amp;gt;\overline{f}(t)\, &amp;lt;/math&amp;gt;を世代&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;での固体の平均適応度とすると&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{lll}&lt;br /&gt;
m(H,t+1) &amp;amp;\geq&amp;amp; m(H,t)f(H)&lt;br /&gt;
\{1-p_c\delta(H)/(l-1)\}(1-p)^{o(H)}/\overline{f}(t) \\&lt;br /&gt;
&amp;amp;\approx&amp;amp; m(H,t)f(H)\{1-p_c\delta(H)/(l-1)-po(H)\}/\overline{f}(t) &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が成立する. &lt;br /&gt;
&lt;br /&gt;
　遺伝アルゴリズムは[[進化的計算]] (evolutionary computation), 進化的プログラミング (evolutionary programming) といった生物の遺伝, 進化の過程を模倣して最適化問題における最適解を探索するという枠組みの中のひとつであり、さらには[[人工生命]]} (artificial life) という生命システムをコンピュータでシミュレートする研究との関連においても注目されている. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] G. Hansen and N. Mladenovic, &amp;quot;An Introduction to Variable Depth Search,&amp;quot; in ''Meta-heuristics: Advances and Trends in Local Search Paradigms for Optimization'', S. Voss, eds., Kluwer Academic Publishers.&lt;br /&gt;
&lt;br /&gt;
[2] S. Kirkpatrick, C. D. Gellat and M. P. Vecchi, &amp;quot;Optimization by Simulated Annealing,&amp;quot; ''Science'', '''220''' (1983), 671-680. &lt;br /&gt;
&lt;br /&gt;
[3] F. Glover, &amp;quot;Tabu Search I,&amp;quot; ''ORSA Journal on Computing'', '''1''' (1989), 190-206.&lt;br /&gt;
&lt;br /&gt;
[4] F. Glover, &amp;quot;Tabu Search II,&amp;quot; ''ORSA Journal on Computing'', '''2''' (1989), 4-32.&lt;br /&gt;
&lt;br /&gt;
[5] D. E. Goldberg, ''Genetic Algorithms in Search, Optimization, and Machine Learning'', Addison-Wesley, 1989.&lt;br /&gt;
&lt;br /&gt;
[6] J. H. Holland, ''Adaptation in Natural and Artificial Sytems'', University of Michigan Press, 1975.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%A2%BA%E7%8E%87%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=5026</id>
		<title>《確率計画》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%A2%BA%E7%8E%87%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=5026"/>
		<updated>2007-07-16T13:49:00Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【かくりつけいかく (stochastic programming)】'''&lt;br /&gt;
&lt;br /&gt;
　数理計画問題において, 目的関数や制約条件の係数の中に確率的要素が含まれているとき, これを[[確率計画]] (stochastic programming)(確率計画法, 確率計画問題)と呼ぶ. いま, 制約条件の係数に確率変数を含む線形計画問題 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
\mbox{min.}  &amp;amp; c^{\top}x \\&lt;br /&gt;
\mbox{s. t.}&amp;amp; T(\omega)x=h(\omega), \\&lt;br /&gt;
                 &amp;amp;  Ax=b,\  x\ge 0, \\&lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を考える. ここで, &amp;lt;math&amp;gt;c,b,A\, &amp;lt;/math&amp;gt;はそれぞれ既知のベクトルや行列で, &amp;lt;math&amp;gt;T(\omega)\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;h(\omega)\, &amp;lt;/math&amp;gt;は確率事象&amp;lt;math&amp;gt;\omega\, &amp;lt;/math&amp;gt;に依存するランダムな行列およびベクトルである.  確率変数を含む制約条件はすべての実現値に対して満たされるとは限らない. そこで, 確率計画問題として2つのアプローチ[[2段階計画問題]] (two-stage programming problem)および[[確率制約計画問題]] (probabilistic constrained programming problem)がある [1], [2]. &lt;br /&gt;
&lt;br /&gt;
　まず2段階計画問題では,確率変数の含まれる制約条件&amp;lt;math&amp;gt;T(\omega)x=h(\omega)\, &amp;lt;/math&amp;gt;においてこの制約条件を成り立たせなくさせている両辺の差 &amp;lt;math&amp;gt;h(\omega)-T(\omega)x\, &amp;lt;/math&amp;gt; に対してその外れ具合を矯正するためにリコースというものを考える. 具体的には次のようなリコース行列&amp;lt;math&amp;gt;W\, &amp;lt;/math&amp;gt;およびリコース変数&amp;lt;math&amp;gt;y\, &amp;lt;/math&amp;gt;を考える. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;Wy=h-Tx,\  y\ge 0\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
すなわち, 2段階計画問題は次のように定式化される. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
\mbox{min.}  &amp;amp; c^{\top}x+&lt;br /&gt;
  \mbox{E} [\mbox{min}\  q(\omega)^{\top}y(\omega)] \\&lt;br /&gt;
\mbox{s. t.}&amp;amp; T(\omega)x+Wy(\omega)=h(\omega), \\&lt;br /&gt;
                 &amp;amp;  Ax=b,\  x\ge 0,\  y(\omega)\ge 0.\\&lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　次に確率制約計画問題において, 制約条件が必ずしも満たされなくても, ある確率以上で満たされれば良い場合を考える. 例えば, &amp;lt;math&amp;gt;T(\omega)x\ge h(\omega)\, &amp;lt;/math&amp;gt;という制約条件の代わりに確率&amp;lt;math&amp;gt;\alpha\, &amp;lt;/math&amp;gt;以上で成り立つという確率制約条件&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\Pr\{T(\omega)x\ge h(\omega)\}\ge \alpha\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を考える. 目的関数の型によってEモデル, Vモデル, Pモデルなど様々なモデルが考えられる. &lt;br /&gt;
&lt;br /&gt;
　2段階計画問題も確率制約計画問題も, 通常は等価な確定問題すなわち非線形計画問題に変換して解く. 一般にはこの変換は非常に複雑な形になる. 通常2段階計画問題の方が確率制約計画問題より等価な確定問題への変換が難しい. そこで確率計画の切除平面法であるL型法のような確率分布の特別な構造を利用した解法や, 様々な近似を利用した解法が研究されている [1], [3]. &lt;br /&gt;
&lt;br /&gt;
　確率計画問題において, 通常は確率変数の分布関数は与えられているとするが, 一般には分布関数が完全に分かることは難しい. いま完全情報すなわち確率変数の将来の実現値を知るために決定者が最大どれだけの価値を支払うかを調べる. この価値は[[完全情報の期待価値]] (expected value of perfect information; EVPI)と呼ばれる. 完全情報を得ると実現値に対して, 最適解や最適値を正確に知ることができる. そこで, 最適解や最適値の確率分布を求める問題, すなわち[[分布問題 (確率計画における)|分布問題]] (distribution problem)が考えられるが, この問題は通常非常に難しい. 分布問題の近似として確率変数をその期待値で置き換えた問題を考え, このときこの期待値問題と確率の入ったリコース問題との最適値の違いを[[確率解の価値]] (value of the stochastic solution; VSS)と呼ぶ. これは確率計画として解くことの価値を表すものである. EVPIやVSSの上限と下限で挟まれた区間をより厳密に求めることが研究されている[1], [5].&lt;br /&gt;
&lt;br /&gt;
　その他確率計画では推定や近似など統計的な方法を用いたもの [4] やファイナンス, ポートフォリオのような応用面を対象とした研究も多くなってきている.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] J. R. Birge and F. Louveaux, ''Introduction to Stochastic Programming'', Springer-Verlag, New York, 1997.&lt;br /&gt;
&lt;br /&gt;
[2] S. Vajda, ''Probabilistic Programming'', Academic Press, New York and London, 1972.&lt;br /&gt;
&lt;br /&gt;
[3] A. Pr&amp;amp;eacute;kopa, &amp;quot;The Use of Discrete Moment Bounds in Probabilistic Constrained Stochastic Programming Models,&amp;quot; ''Annals of Operations Research'', '''85''' (1999), 21-38.&lt;br /&gt;
&lt;br /&gt;
[4] R. J-B Wets, &amp;quot;Stochastic Programming,&amp;quot; in ''Optimization'', G. L. Nemhauser, A. H. G. Rinooy Kan and M. J. Todd, eds., North-Holland, 1989. 石井博昭 訳,「確率計画法」, 伊理正夫, 今野浩, 刀根薫監訳,『最適化ハンドブック』, 朝倉書店, 1995.&lt;br /&gt;
&lt;br /&gt;
[5] 塩出省吾,「確率計画法」, 西田俊夫, 田畑吉雄編,『現代OR入門』,現代数学社, 1995.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%9C%80%E9%81%A9%E5%81%9C%E6%AD%A2%E3%80%8B&amp;diff=5025</id>
		<title>《最適停止》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%9C%80%E9%81%A9%E5%81%9C%E6%AD%A2%E3%80%8B&amp;diff=5025"/>
		<updated>2007-07-16T13:46:28Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【さいてきていし (optimal stopping)】'''&lt;br /&gt;
&lt;br /&gt;
　逐次に観測される確率変数列に基づき, 期待利得を最大化したり期待費用を最小化するためにある行動を取る時刻を選ぶ問題を[[最適停止]]問題という. 最適停止は次の2つの要素を持つ. (i) 結合分布が既知である確率変数列: &amp;lt;math&amp;gt;X_1, X_2, \cdots\, &amp;lt;/math&amp;gt;, (ii) 実数値利得関数列: &amp;lt;math&amp;gt;y_0, \ y_1(x_1), \ y_2(x_1, x_2), \cdots ,\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\ y_{\infty}(x_1, x_2, \cdots)\, &amp;lt;/math&amp;gt;. 逐次に確率変数列&amp;lt;math&amp;gt;X_1\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;X_2\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\cdots\, &amp;lt;/math&amp;gt;を観測し, 最初の&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;段階において&amp;lt;math&amp;gt;X_1=x_1,X_2=x_2, \cdots, X_n=x_n\, &amp;lt;/math&amp;gt;を観測後に観測を停止して利得&amp;lt;math&amp;gt;y_n(x_1, \cdots, x_n)\, &amp;lt;/math&amp;gt;を得るか, 継続して&amp;lt;math&amp;gt;X_{n+1}\, &amp;lt;/math&amp;gt;を観測するかの決定を下す. 全く観測しないならば&amp;lt;math&amp;gt;y_0\, &amp;lt;/math&amp;gt;, 決して停止しないならば&amp;lt;math&amp;gt;y_{\infty}(x_1, x_2, \cdots)\, &amp;lt;/math&amp;gt;の利得を得る.このとき, 利得を最大にするタイミングである停止時刻を求めるのが最適停止問題である.要素の(ii)は, &amp;lt;math&amp;gt;Y_n=y_n(X_1, \cdots , X_n)\, &amp;lt;/math&amp;gt;としたとき, (ii') 結合分布が既知である利得を表す確率変数列: &amp;lt;math&amp;gt;Y_0, \ Y_1, \ Y_2, \ \cdots, \ Y_{\infty},\, &amp;lt;/math&amp;gt; としてもよい.  このとき, &amp;lt;math&amp;gt;E(Y_N)\, &amp;lt;/math&amp;gt;を最大にする停止時刻&amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;を求めるのが最適停止問題であるとも記述できる. &amp;lt;math&amp;gt;Y_N\, &amp;lt;/math&amp;gt;を利得ではなく何らかの費用や損失と解釈すると, 費用ないし損失を最小にする停止規則(時刻)&amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;を求める問題となる.&lt;br /&gt;
&lt;br /&gt;
　より一般的には, 最適停止問題は次の様に記述されている.  確率空間 &amp;lt;math&amp;gt;(\Omega, {\mathcal F}, P)\, &amp;lt;/math&amp;gt;が与えられ, &amp;lt;math&amp;gt;{\mathcal F}_n\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;X_1, \cdots, X_n\, &amp;lt;/math&amp;gt;によって生成される &amp;lt;math&amp;gt;\mathcal F\, &amp;lt;/math&amp;gt;の部分 &amp;lt;math&amp;gt;\sigma\, &amp;lt;/math&amp;gt;集合, &amp;lt;math&amp;gt;{\mathcal F}_0=\{\Omega, \phi\}, {\mathcal F}_n\, &amp;lt;/math&amp;gt;を &amp;lt;math&amp;gt;\cup {\mathcal F}_n\, &amp;lt;/math&amp;gt;によって生成される &amp;lt;math&amp;gt;\sigma\, &amp;lt;/math&amp;gt;集合とし, &amp;lt;math&amp;gt;{\mathcal F}_0 \subset {\mathcal F}_1 \subset \cdots\subset {\mathcal F}_n \subset \cdots\subset {\mathcal F}_{\infty} \subset {\mathcal F}\, &amp;lt;/math&amp;gt;とする. (i)(ii) にかわり(i') 増加部分&amp;lt;math&amp;gt;\sigma\, &amp;lt;/math&amp;gt;集合列:&amp;lt;math&amp;gt;{\mathcal F}_0 \subset {\mathcal F}_1 \subset \cdots \subset {\mathcal F}_{\infty}\subset {\mathcal F}\, &amp;lt;/math&amp;gt;, (ii&amp;quot;) 結合分布が既知な利得を表す確率変数列: &amp;lt;math&amp;gt;Y_0,Y_1, \cdots, Y_n, \cdots, Y_{\infty}\, &amp;lt;/math&amp;gt;,とし, &amp;lt;math&amp;gt;Y_n\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;{\mathcal F}_n\, &amp;lt;/math&amp;gt;-可測, &amp;lt;math&amp;gt;n=0, 1, \cdots, \infty\, &amp;lt;/math&amp;gt;とする. &amp;lt;math&amp;gt;\{N=n\}\in {\mathcal F}_n\, &amp;lt;/math&amp;gt;である非負整数値確率変数&amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;を停止規則と定義する. (この定義は, いつ停止するかの決定は今までの観測のみに基づき, 将来の観測には基づかないと解釈するとわかりやすい.) このとき &amp;lt;math&amp;gt;E(Y_N)\, &amp;lt;/math&amp;gt;を最大にする停止規則&amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;を求めるのが最適停止問題である. 一般に全ての最適停止問題を解くことは難しいが, 有限期間問題と単調問題(monotone problem)は解くことができる. 確率変数列 &amp;lt;math&amp;gt;X_1, X_2, \cdots, X_n, n&amp;lt;\infty\, &amp;lt;/math&amp;gt;を観測後に必ず停止しなければならないとき, 有限期間問題と呼ぶ.有限期間問題は基本的に後向きの帰納法 (backward induction) によって解かれる. &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;期では停止しなければならないので, &amp;lt;math&amp;gt;V_n^{(n)}\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;V_n^{(n)}(x_1, \cdots, x_n)=y_n(x_1, \cdots, x_n)\, &amp;lt;/math&amp;gt;と定義する. &amp;lt;math&amp;gt;(n-1)\, &amp;lt;/math&amp;gt;期では, ここで停止したときの利得 &amp;lt;math&amp;gt;y_{n-1}(x_1, \cdots, x_{n-1})\, &amp;lt;/math&amp;gt;と,  継続して&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;期で停止したときの期待利得 &amp;lt;math&amp;gt;\mbox{E} (V_n^{(n)}(x_1, \cdots, x_{n-1}, X_n)|X_1   = x_1, \cdots, X_{n-1}=x_{n-1})\, &amp;lt;/math&amp;gt;を比較すれば, &amp;lt;math&amp;gt;(n-1)\, &amp;lt;/math&amp;gt;期で停止すべきか継続すべきかが判明する.  &amp;lt;math&amp;gt;V_{n-1}^{(n)}(x_1, \cdots, x_{n-1})\, &amp;lt;/math&amp;gt;を次のように定義する. &amp;lt;math&amp;gt;V_{n-1}^{(n)}(x_1, \cdots, x_n) = \max\{y_{n-1}(x_1, \cdots, x_{n-1}),   \mbox{E}(V_n^{(n)}(x_1, \cdots, x_{n-1}, X_n)|X_1     = x_1, \cdots, X_{n-1}=x_{n-1})\}.\, &amp;lt;/math&amp;gt;同様に &amp;lt;math&amp;gt;j=n-2, n-3, \cdots, 0\, &amp;lt;/math&amp;gt;と後ろ向きに&amp;lt;math&amp;gt;V_j^{(n)}(x_1, \cdots, x_j)\, &amp;lt;/math&amp;gt;を定義し,&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
V_j^{(n)}(x_1,\cdots, x_j) = &amp;amp; \max\{y_j(x_1,\cdots, x_j), \\&lt;br /&gt;
&amp;amp; \quad \mbox{E} (V_{j+1}^{(n)}&lt;br /&gt;
  (x_1,\cdots, x_j, X_{j+1})|X_1=x_1,\cdots,&lt;br /&gt;
X_j=x_j) \}&lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
とする. このように定義された &amp;lt;math&amp;gt;V_j^{(n)}(x_1, \cdots, x_j)\, &amp;lt;/math&amp;gt;は,  &amp;lt;math&amp;gt;X_1=x_1, \cdots\, &amp;lt;/math&amp;gt;,  &amp;lt;math&amp;gt;X_j=x_j\, &amp;lt;/math&amp;gt;を観測して&amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt;期から始めたときの最大期待利得を表し, 上式は最適方程式と呼ばれる. これは[[動的計画]]の[[最適性の原理]]によって得られる関数再帰方程式に他ならず, DP(ダイナミック&amp;lt;math&amp;gt;\cdot\, &amp;lt;/math&amp;gt;プログラミング)方程式とも呼ばれる.  &amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt;期においては, 停止して得られる利得&amp;lt;math&amp;gt;y_j(x_1, \cdots, x_j)\, &amp;lt;/math&amp;gt;が&amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt;期より継続して得られる最大期待利得&amp;lt;math&amp;gt;\mbox{E}(V_{j+1}^{(n)}(x_1, \cdots, x_j, X_{j+1})|X_1  = x_1, \cdots, X_j=x_j)\, &amp;lt;/math&amp;gt;より良ければ停止し, 逆ならば継続するのが良い. それゆえに, 有限期間問題の最適停止規則&amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt;は, 初めて&amp;lt;math&amp;gt;V_j^{(n)}(x_1, \cdots, x_j)=y_j(x_1, \cdots, x_j)\, &amp;lt;/math&amp;gt;となる&amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt;で停止することである. 有限期間問題の最大期待利得は, &amp;lt;math&amp;gt;V_0^{(n)}\, &amp;lt;/math&amp;gt;となる.&lt;br /&gt;
&lt;br /&gt;
　最適停止問題において, 事象&amp;lt;math&amp;gt;A_n=\{Y_n\ge E(Y_{n+1}|{\mathcal F}_n)\}\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;n=0, 1, 2, \cdots\, &amp;lt;/math&amp;gt;が &amp;lt;math&amp;gt;\textstyle A_0 \subset A_1 \subset \cdots \subset;\  {\bigcup}_1^{\infty} A_n=\Omega \, &amp;lt;/math&amp;gt; (almost surely) を満たしているとき単調問題とよぶ. 単調問題では, ある条件の下で([1]参照) OLA (one-stage look-ahead) 停止規則&amp;lt;math&amp;gt;N:=\min\{n\ge 0: Y_n\ge E(Y_{n+1}|{\mathcal F}_n)\}\, &amp;lt;/math&amp;gt;が最適停止規則となる. OLA 停止規則とは, もう1期だけ継続してから停止するよりも, 今停止するほうがよいときに停止することを要求する規則である.&lt;br /&gt;
&lt;br /&gt;
　独自のクラスを形成してきたといえる確率最大化最適停止問題に秘書問題がある. 秘書問題は結婚問題とも呼ばれ, 最も基本となる古典的秘書問題は次のように記述される. 1人の秘書を雇いたい. 面接した応募者には同ランクはなくランク付けが可能とする. 1人ずつ面接する毎に, 今までに面接した応募者の相対ランクに基づき採用するか否かを決めなければならず, 一度不採用にした応募者を採用することはできない. &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;人の応募者があり, &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;人の面接の順列の一つが実現する確率が&amp;lt;math&amp;gt;1/n!\, &amp;lt;/math&amp;gt;のとき,  &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;人中のベストランクを得る確率を最大にする最適停止規則を求めたい. 最適停止規則は, &amp;lt;math&amp;gt;r^{\ast}-1\, &amp;lt;/math&amp;gt;番目までの応募者は全て採用を見送り, それ以降に最初に面接する相対的ベストの応募者を採用しなさい, となり, ここで, &amp;lt;math&amp;gt;\textstyle r^{\ast}=\min\{i\ge 1:\sum_{j=i}^{n-1}(1/j) \le 1\}\, &amp;lt;/math&amp;gt;により&amp;lt;math&amp;gt;r^{\ast}\, &amp;lt;/math&amp;gt;は与えられる. &amp;lt;math&amp;gt;n\to \infty\, &amp;lt;/math&amp;gt;のとき, &amp;lt;math&amp;gt;r^{\ast}/n \to 1/{\rm e} \approx 0.3678\, &amp;lt;/math&amp;gt;となる.  大まかに言うと, &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;が十分大きいとき, 36.8%まではパスしてそれ以 降に到着する相対的ベストの応募者を採用するのが最適である. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] Y. S. Chow, H. Robbins and D. Siegmund, ''Great Expectations: The Theory of Optimal Stopping'', Houghton Mifflin Company, Boston, 1971.&lt;br /&gt;
&lt;br /&gt;
[2] T. S. Ferguson, &amp;quot;Who Solved the Secretary Problem?,&amp;quot; ''Statistical Science'', '''4''' (1989), 282-289.&lt;br /&gt;
&lt;br /&gt;
[3] A. N. Shiryaev, ''Optimal Stopping Rules'', Springer-Verlag, New York, 1978.&lt;br /&gt;
&lt;br /&gt;
[4] J. L. Snell, &amp;quot;&amp;quot;Applications of Martingale System Theorems,&amp;quot; ''Trans. Amer. Math. Soc.'', '''73''' (1952), 293-312.&lt;br /&gt;
&lt;br /&gt;
[5] S. M. Ross, ''Applied Probability Models with Optimization Applications'', Holden - Day, San Francisco, 1970.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%9A%E7%9B%AE%E7%9A%84%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=5024</id>
		<title>《多目的計画》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%9A%E7%9B%AE%E7%9A%84%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=5024"/>
		<updated>2007-07-16T13:43:07Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【たもくてきけいかく (multiobjective programming)】'''&lt;br /&gt;
&lt;br /&gt;
　我々が現実世界において遭遇する意思決定問題には, 複数の評価尺度(目的)があることが多い. このような問題を多基準意思決定問題あるいは多目的意思決定問題と呼ぶ. このような問題の数理計画法としての定式化とその解決方法を考えるのが多目的計画である. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;個の目的関数をもつ多目的計画問題は&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
        \mbox{minimize} &amp;amp; f(x)=(f_1(x), \ldots , f_p(x))\\&lt;br /&gt;
        \mbox{subject to} &amp;amp; x \in X, &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
という形に定式化される. ここで &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;は実行可能集合であるが, 通常の１目的の数理計画問題と同様, 不等式制約や等式制約で表現されることが多い. &lt;br /&gt;
&lt;br /&gt;
　通常の数理計画問題(最適化問題)であれば, 実数の大小関係が全順序であることから, 最適解の概念は明瞭であるが, 多目的の場合は一方が良くとも他方が悪くなることが生じるため順序関係が半順序となり, 考察を要する. 基本となるのは, [[パレート最適解]] (単にパレート解または非劣解, 有効解) と呼ばれる解である. 実行可能解 &amp;lt;math&amp;gt;x^* \in X\, &amp;lt;/math&amp;gt; は別の実行可能解 &amp;lt;math&amp;gt;x \in X\, &amp;lt;/math&amp;gt; で&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;f_i(x) \leq f_i(x^*) \quad (\forall i=1, \ldots ,p),&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;f_i(x) &amp;lt; f_i(x^*) \quad (\exists i \in \{1, \ldots , p \}),&amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
となるものが存在しないとき, パレート最適解であるといわれる. これを少し弱めた解として弱パレート最適解が, また強めた解として真性パレート最適解がある. さらに, 意思決定の観点からいえば, 最終的に意思決定者にとって最も好ましい解をパレート最適解の中から選ぶことが問題となるが, この解のことを意思決定者の選好解という. &lt;br /&gt;
&lt;br /&gt;
　通常の数理計画における理論的成果を, 多目的計画の場合に拡張する研究はこれまで多くなされてきている. まずパレート最適解を特徴づける最適性の条件は, キューン・タッカー条件を拡張した形で得られている. また多目的計画に対する双対性や安定性, 感度分析などの研究も進んでいる. ただし, 通常の問題であればその最適値&amp;lt;math&amp;gt;\min \{ f(x) | x \in X \}\, &amp;lt;/math&amp;gt; は一意に定まる(厳密には, &amp;lt;math&amp;gt;\min\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;\inf\, &amp;lt;/math&amp;gt; で置き換え, &amp;lt;math&amp;gt;\pm \infty\, &amp;lt;/math&amp;gt; を許容する場合もある). これに対し多目的のパレート最適解は一意には定まらないのが普通であり, パレート最適値(パレート最適解に対応する目的関数値)全体が一つの集合を与える. したがって, 通常の最適値関数に対応するものとして, いわゆる最適値写像あるいは摂動写像と呼ばれる集合値写像(点対集合写像)を考える必要がある. これらの理論的結果については [1][3] に詳しい. &lt;br /&gt;
&lt;br /&gt;
　さて, 意思決定者の選好解を求めるには, 大きく分けて以下に述べる３つのアプローチがある. &lt;br /&gt;
&lt;br /&gt;
#パレート最適解のすべて(もしくは十分多く)を求め, それを意思決定者に提示して, 選考解を決定してもらう. &lt;br /&gt;
#意思決定者の選好を表す実数値関数である価値関数(もしくは効用関数)を求め, それを最適化する通常の数理計画問題を解く. &lt;br /&gt;
#コンピュータによるパレート最適解の導出とその解に基づく意思決定者の局所的な選好情報を用いて, 両者の対話を繰り返すことにより, 選好解を求める. &lt;br /&gt;
&lt;br /&gt;
　まず, 最初のアプローチは特に目的関数の数が少ない(例えば２目的の)場合や, 実行可能解が比較的少数の有限個しか存在しないような場合であれば, 有効となる. 実際にパレート最適解を求めるには, もとの多目的計画問題を何らかのパラメータを含む通常の数理計画問題に変換するスカラー化を行う. この方法として代表的なものは次の３つである.&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
:*加重和最小化: 各目的関数に対する重み&amp;lt;math&amp;gt;w_i\, &amp;lt;/math&amp;gt;を用いて, 問題&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
        \mbox{minimize} &amp;amp; \displaystyle \sum _{i=1}^p w_if_i(x)\\&lt;br /&gt;
        \mbox{subject to} &amp;amp; x \in X, &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を解く. 簡明で分かり易いが, 非凸な問題の場合には欠陥がある. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:*基準点からのノルム最小化: 基準点 &amp;lt;math&amp;gt;\bar{y}=(\bar{y}_1,\ldots , \bar{y}_p)\, &amp;lt;/math&amp;gt; からのノルム(すなわち乖離度)を最小にする. すなわち, 問題 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
        \mbox{minimize} &amp;amp; \parallel f(x)- \bar{y} \parallel\\&lt;br /&gt;
        \mbox{subject to} &amp;amp; x \in X, &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を解く. ノルムとしては, &amp;lt;math&amp;gt;l_1\, &amp;lt;/math&amp;gt; ノルム([[目標計画]]はこの場合に相当する)やチェビシェフノルムなどが考えられる. また実際にはこれを拡張したチェビシェフスカラー化関数を用いたり, 目的関数に重みを導入したりする. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:*制約変換法: 一つの目的関数(例えば &amp;lt;math&amp;gt;f_p\, &amp;lt;/math&amp;gt;)を目的関数として残し, 他の目的関数に対する要求水準 &amp;lt;math&amp;gt;\varepsilon _1, \ldots , \varepsilon _{p-1}\, &amp;lt;/math&amp;gt; を用いた問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
        \mbox{minimize} &amp;amp; f_p(x)\\&lt;br /&gt;
        \mbox{subject to} &amp;amp; f_i (x) \leq \varepsilon _i \; \; (i=1, \ldots , p-1), \;&lt;br /&gt;
 \; x \in X, &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を解く. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　次に２番目のアプローチの価値関数(効用関数)の同定については, 多属性効用理論がよく知られている. この際大切なことは, 目的関数間の独立性が十分確保されていることである. 詳細については [4] に詳しい. なお, 上に挙げた加重和目的関数やノルム関数を効用関数として想定し, そのパラメータを同定するのも, このアプローチの簡略版と考えられる. &lt;br /&gt;
&lt;br /&gt;
　最後のアプローチが[[対話型解法 (多目的計画における)|対話型解法]]とよばれているもので, コンピュータによる候補解の算出と意思決定者による選好情報の提示を交互に繰り返していくことにより, 選好解を探索する. 両者の情報交換の仕方によって, いくつもの方法が考えられているが, 人間が関わっているだけに, ヒューマンフレンドリーな方法であることが望まれる. 現在までに提案された主な対話型解法については [2]に詳しい. 日本語では [3]に希求水準法を中心とした説明がある. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] Y. Sawaragi, H. Nakayama and T. Tanino, ''Theory of Multiobjective Optimization'', Academic Press, 1985.&lt;br /&gt;
&lt;br /&gt;
[2] K. M. Miettinen, ''Nonlinear Multiobjective Optimization'', Kluwer Academic, 1999.&lt;br /&gt;
&lt;br /&gt;
[3] 中山弘隆, 谷野哲三,『多目的計画法の理論と応用』, 計測自動制御学会, 1994.&lt;br /&gt;
  &lt;br /&gt;
[4] 田村坦之, 中村豊, 藤田眞一,『効用分析の数理と応用』, コロナ社, 1997.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E4%B8%8D%E5%A4%89%E5%9F%8B%E6%B2%A1%E5%8E%9F%E7%90%86%E3%80%8B&amp;diff=5023</id>
		<title>《不変埋没原理》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E4%B8%8D%E5%A4%89%E5%9F%8B%E6%B2%A1%E5%8E%9F%E7%90%86%E3%80%8B&amp;diff=5023"/>
		<updated>2007-07-16T13:40:00Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ふへんまいぼつげんり (principle of invariant imbedding)】'''&lt;br /&gt;
&lt;br /&gt;
　ある問題を解こうとするとき, この問題を含む部分問題からなる群(族)を考えることを「埋め込み」(imbedding)という. すなわち, 与問題をある問題群の１つと見做すことである. このとき, 問題の大きさは小さい(易しい)ものから大きい(難しい)ものまであり, 一番大きい(解きたい)問題が与問題である. しかし, 問題の「構造」は不変である. さらに, 相隣る問題間の関係式を導き, これを解くことによって, 与問題の「解」を求める. このような方法で解に至るまでを, [[不変埋没原理]] (principle of invariant imbedding)による方法という [1] [4] [5].  &lt;br /&gt;
&lt;br /&gt;
　たとえば,「1から10までの自然数の和を求める」問題を考えてみよう. 以下ではいつも「1から」(前向きの方法で)考えることにして, この問題を &amp;lt;math&amp;gt;{\rm P}(10)\, &amp;lt;/math&amp;gt; で表わし, 「解」(この場合, 和)を &amp;lt;math&amp;gt;S(10)\, &amp;lt;/math&amp;gt; としよう. このとき, 「1から &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; までの自然数の和を求める」部分問題 &amp;lt;math&amp;gt;{\rm P}(n)\, &amp;lt;/math&amp;gt; からなる群 &amp;lt;math&amp;gt;\{ {\rm P}(n); n = 1, 2, \ldots , 10\}\, &amp;lt;/math&amp;gt; を考える. このこと自体が埋め込みである. 部分問題 &amp;lt;math&amp;gt;{\rm P}(n)\, &amp;lt;/math&amp;gt; の解(&amp;lt;math&amp;gt;=\, &amp;lt;/math&amp;gt;和)を &amp;lt;math&amp;gt;S(n)\, &amp;lt;/math&amp;gt; とする. 最後の(一番大きい)問題 &amp;lt;math&amp;gt;{\rm P}(10)\, &amp;lt;/math&amp;gt; の解 &amp;lt;math&amp;gt;S(10)\, &amp;lt;/math&amp;gt; が求める解である. このとき, 最初の (一番易しい) 問題の解は &amp;lt;math&amp;gt;S(1) = 1\, &amp;lt;/math&amp;gt; であり, 相隣る問題の解 &amp;lt;math&amp;gt;S(n)\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;S(n+1)\, &amp;lt;/math&amp;gt; の間に漸化式&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;S(n+1) = S(n) + n+1 \quad n = 1, 2, \ldots , 9; \quad S(1) = 1\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が成り立つ. 漸化式を &amp;lt;math&amp;gt;S(1), S(2), \ldots\, &amp;lt;/math&amp;gt; の順に前向きに逐次解くことによって, &amp;lt;math&amp;gt;S(10) = 55\, &amp;lt;/math&amp;gt; を得る. 他方, 「&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; から(いつも！)10までの自然数の和を求める」部分問題 &amp;lt;math&amp;gt;{\rm Q}(n)\, &amp;lt;/math&amp;gt; の族を考えても, 上述と同様に解くことができる. これを後向きの埋め込みという.&lt;br /&gt;
 &lt;br /&gt;
　一般の問題では, どのような大きさの問題群に埋め込むか, 関係式が導けるか, 解けるか, 解き易いかなど, 埋め込み方に工夫を要する. たとえば, 多段階の最適化問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\mbox{max.} ~~ \psi(g_{1}(x_{1},x_{2}) \circ g_{2}(x_{2},x_{3}) \circ&lt;br /&gt;
 \cdots \circ g_{N}(x_{N},x_{N+1}) \circ k(x_{N+1}))  \, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\mbox{s. t.} ~~~ x_{n+1} \in A_{n}(x_{n}) \quad (1 \le n \le N), \, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の最大値 &amp;lt;math&amp;gt;u_{1}(x_{1})\, &amp;lt;/math&amp;gt; と最大点  &amp;lt;math&amp;gt;x^{*} = (x_{1}, x_{2}^{*}, \ldots , x_{N+1}^{*})\, &amp;lt;/math&amp;gt; を求めるには, 新たなパラメータ &amp;lt;math&amp;gt;\lambda_{n} (\in \Lambda_{n}(x_{n}))\, &amp;lt;/math&amp;gt; を含む部分問題群 &amp;lt;math&amp;gt;{\mathcal P} = \{ {\rm P}_{n}(x_{n};\lambda_{n}) \}\, &amp;lt;/math&amp;gt; :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;{\rm max.}~~ \psi(\lambda_{n} \circ g_{n}(x_{n},x_{n+1}) \circ \cdots&lt;br /&gt;
 \circ g_{N}(x_{N},x_{N+1}) \circ k(x_{N+1})) \, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\begin{array}{l}\mbox{s. t.} ~~~ x_{m+1} \in A_{m}(x_{m}) \quad (n \le m \le N), \\&lt;br /&gt;
~~~~ x_{n} \in X_{n}, \; \lambda_{n} \in \Lambda_{n}(x_{n}), ~ (1 \le n \le N+1),&lt;br /&gt;
\end{array} \, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
に埋め込むと, パラメータ空間列 &amp;lt;math&amp;gt;\{\Lambda_{n}(\cdot)\}\, &amp;lt;/math&amp;gt; は前向きの再帰式&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\Lambda_{1}(x) = \{ \tilde{\lambda}\},~~x \in X_{1}\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(\tilde{\lambda}\, &amp;lt;/math&amp;gt;は結合演算&amp;lt;math&amp;gt;\circ\, &amp;lt;/math&amp;gt;の左単位元&amp;lt;math&amp;gt;)\, &amp;lt;/math&amp;gt;  &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\begin{array}{lr}&lt;br /&gt;
\Lambda_{n+1}(y) = &amp;amp; \{\, \lambda \circ g_{n}(x,\,y) \, | \, \lambda \in \Lambda_{n}(x),~y \in A_{n}(x) \, \} \\ &lt;br /&gt;
&amp;amp; y \in X_{n+1},~~ n = 1, 2, \ldots , N&lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で生成され, 最適値関数 &amp;lt;math&amp;gt;u_{n} = u_{n}(x_{n};\lambda_{n})\, &amp;lt;/math&amp;gt;は次の後向き再帰式を満たす：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;u_{n}(x; \lambda) = \max_{y \in A_{n}(x)}u_{n+1}(\,y\,; &lt;br /&gt;
\lambda \circ g_{n}(x,\,y))\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;~~~~x \in X_{n}, ~~\lambda \in \Lambda_{n}(x),~~ n = 1, 2, \ldots , N\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;u_{N+1}(x; \lambda) = \psi(\lambda \circ k(x))~~x \in X_{N+1},~~\lambda \in \Lambda_{N+1}(x).\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
これを後ろから逐次解き, 最後の &amp;lt;math&amp;gt;u_{1}(x_{1};\lambda_{1})\, &amp;lt;/math&amp;gt; に &amp;lt;math&amp;gt;\lambda_{1} = \tilde{\lambda}\, &amp;lt;/math&amp;gt; を代入すると求める最大値が得られる： &amp;lt;math&amp;gt;u_{1}(x_{1}) = u_{1}(x_{1};\tilde{\lambda}).\, &amp;lt;/math&amp;gt;  &lt;br /&gt;
&lt;br /&gt;
　また, [[非最適化]]問題としては, [[木の総容量]]など, 多重和 ([[多重和の解法]])&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;[[スタイル検討#不変埋没原理 (0054-a-e-04-1)|スタイル検討]]  &amp;lt;math&amp;gt;\mbox{S}_{1}(x_{1}):~~ {\sum \sum \cdots \sum}&lt;br /&gt;
_{(x_{2}, x_{3}, \cdots , x_{N+1}) \in P_{1}(x_{1})}&lt;br /&gt;
\psi(g_{1}(x_{1},x_{2}) \circ \cdots \circ&lt;br /&gt;
 g_{N}(x_{N},x_{N+1}) \circ k(x_{N+1}))\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;(P_{1}(x_{1}) := \{(x_{2}, \cdots , x_{N+1})\, |\,&lt;br /&gt;
 x_{n+1} \in A_{n}(x_{n})~~1 \le n \le N \})\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を求める問題があって, やはりパラメータを含む埋め込みによって解くことができる. &lt;br /&gt;
&lt;br /&gt;
　このようなパラメータを導入した埋め込みは[[非可分性 (動的計画法における)|非可分性]]に起因し, [[単一評価系 (多段決定過程における)|単一評価系]], [[複合評価系 (多段決定過程における)|複合評価系]]の最適化, 期待値最適化, 多重和, 多重積分 ([[多重積分の解法]]) などで考えられる [2] [3]. 不変埋没原理は変数の離散と連続, システムの確定や確率やファジィ, 問題の最適と非最適を問わず, 歴史的には数学(微分方程式, 偏微分方程式の応用), 物理数学などで, また近年はコンピュータサイエンスで幅広く用いられている. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. E. Bellman and E. D. Denman, ''Invariant Imbedding'', Lect. Notes in Operation Research and Mathematical Systems, Vol. 52, Springer-Verlag, Berlin, 1971.&lt;br /&gt;
&lt;br /&gt;
[2] S. Iwamoto and T. Fujita, &amp;quot;Stochastic Decision-making in a Fuzzy Environment,&amp;quot; ''Journal of the Operations Research Society of Japan'', '''38''' (1995), 467-482. &lt;br /&gt;
&lt;br /&gt;
[3] 岩本誠一,「不変埋没によるファジィ動的計画法」, 日本オペレーションズ・リサーチ学会第33回シンポジウム, 25-33, 1995. &lt;br /&gt;
&lt;br /&gt;
[4] E. S. Lee, ''Quasilinearization and Invariant Imbedding'', Academic Press, 1968. &lt;br /&gt;
&lt;br /&gt;
[5] 相良節夫, 杉坂政典,「Invariant Imbedding について」,『システムと制御』, '''17''' (1973), 596-601.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%9A%E6%AE%B5%E7%A2%BA%E7%8E%87%E6%B1%BA%E5%AE%9A%E6%A8%B9%E8%A1%A8(%E3%83%84%E3%83%AA%E3%83%BC%E3%83%86%E3%83%BC%E3%83%96%E3%83%AB)%E3%80%8B&amp;diff=5022</id>
		<title>《多段確率決定樹表(ツリーテーブル)》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%9A%E6%AE%B5%E7%A2%BA%E7%8E%87%E6%B1%BA%E5%AE%9A%E6%A8%B9%E8%A1%A8(%E3%83%84%E3%83%AA%E3%83%BC%E3%83%86%E3%83%BC%E3%83%96%E3%83%AB)%E3%80%8B&amp;diff=5022"/>
		<updated>2007-07-16T13:26:37Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ただんかくりつけっていじゅひょう (multistage stochastic decision tree-table)】'''&lt;br /&gt;
&lt;br /&gt;
　[[多段確率決定樹表 (ツリーテーブル)|多段確率決定樹表]]は, いわゆる決定樹(ディシジョンツリー), 決定表(ディシジョンテーブル)をそれぞれ進化発展させ, 多段階にわたる確率決定過程の問題記述から最適解構成に至るまでを１枚に統合した図表である. 問題のデータを過程の進行状況に応じて配列し, あらゆる可能な経路とその評価値と確率を図示し, 各段における最適決定の選択を明示している. この意味では[[列挙法]]の解構成を与えている. この樹表ではあらゆる型の評価関数の[[期待値最適化 (多段決定過程における)|期待値最適化]], [[確率最適化 (多段決定過程における)|確率最適化]]が解かれる. 樹表には問題に応じて[[繰り返し法 (動的計画法における)|繰り返し法]], [[直接法 (動的計画法における)|直接法]]などいくつかの型がある[1][2][3].&lt;br /&gt;
&lt;br /&gt;
　ここでは3状態2決定2段(3-2-2)モデルで加法型最適化問題：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
\mbox{max.} &amp;amp; \mbox{E}[\,r_{0}(u_{0}) &lt;br /&gt;
+ r_{1}(u_{1}) + r_G(x_2) \,]  \\&lt;br /&gt;
\mbox{s. t.} &amp;amp;  &lt;br /&gt;
p(\,\cdot \,|x_n,u_n) \sim x_{n+1} ~\, (n = 0, 1, u_{0} \in U),&lt;br /&gt;
   \ u_{1} \in U, &lt;br /&gt;
\end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を考える. ただし, 数値は次の通り：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;r_{0}(a_{1}) = 0.7 \quad r_{0}(a_{2}) = 1.0; \quad r_{1}(a_{1}) = 1.0 \quad  r_{1}(a_{2}) = 0.6&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_G(s_{1}) = 0.3 \quad r_G(s_{2}) = 1.0 \quad r_G(s_{3}) = 0.8&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
表1：状態 &amp;lt;math&amp;gt;s_1\, &amp;lt;/math&amp;gt; からの２段確率決定樹表&lt;br /&gt;
&lt;br /&gt;
[[スタイル検討#多段確率決定樹表(ツリーテーブル) (0053-a-e-03-1)|スタイル検討]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
表2：状態 &amp;lt;math&amp;gt;s_1\, &amp;lt;/math&amp;gt; からの２段確率決定樹表(続き)&lt;br /&gt;
&lt;br /&gt;
[[スタイル検討#多段確率決定樹表(ツリーテーブル) (0053-a-e-03-2)|スタイル検討]]&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:決定樹表(繰り返し法)では, 次のように簡略化している：&lt;br /&gt;
&lt;br /&gt;
::履歴 = &amp;lt;math&amp;gt;x_0~~r_{0}(u_0)\,&amp;lt;/math&amp;gt;／&amp;lt;math&amp;gt;u_0~~p_0~~x_1~~r_{1}(u_1)\,&amp;lt;/math&amp;gt;／&amp;lt;math&amp;gt;u_1~~p_1~~x_2~~r_G(x_2)\,&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::ただし &amp;lt;math&amp;gt;p_0 = p(x_1 | x_0,u_0), ~p_1 = p(x_2 | x_1,u_1)\,&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::加法 &amp;lt;math&amp;gt;=\, &amp;lt;/math&amp;gt; 評価値の和 &amp;lt;math&amp;gt;= r_{0}(u_0) + r_{1}(u_1) + r_G(x_2)\,&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::経路 &amp;lt;math&amp;gt;=\,&amp;lt;/math&amp;gt; 経路確率 &amp;lt;math&amp;gt;= p_0 p_1\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::積 &amp;lt;math&amp;gt;=\, &amp;lt;/math&amp;gt; 加法 &amp;lt;math&amp;gt;\times\,&amp;lt;/math&amp;gt; 経路, 　　部期 &amp;lt;math&amp;gt;=\, &amp;lt;/math&amp;gt;部分期待値, 　　全期 &amp;lt;math&amp;gt;=\, &amp;lt;/math&amp;gt; 全期待値.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
この樹表によって &amp;lt;math&amp;gt;s_{1}\, &amp;lt;/math&amp;gt; からの(最適原始決定関数を経て)最適一般決定関数&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\sigma_{0}(s_{1}) = a_{2}; \quad \sigma_{1}(s_{1}, s_{1}) =&lt;br /&gt;
 a_{2}, \quad \sigma_{1}(s_{1}, s_{2}) = a_{1}, \quad \sigma_{1}(s_{1}, s_{3}) = a_{1},a_{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
および最大値 &amp;lt;math&amp;gt;V_{1}(s_{1}) = \mathbf{2.791}&amp;lt;/math&amp;gt; が得られる. さらに, &amp;lt;math&amp;gt;s_{2},\,s_{3}&amp;lt;/math&amp;gt; からの樹表(省略)と合わせると, [[マルコフ政策]]&amp;lt;math&amp;gt;\pi = \{\pi_{0}, \pi_{1} \}  : \, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\pi_{0}(s_{1}) = a_{2}, \quad \pi_{0}(s_{2}) = a_{2}, \quad \pi_{0}(s_{3}) = a_{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\pi_{1}(s_{1}) = a_{2}, \quad \pi_{1}(s_{2}) = a_{1}, \quad \pi_{1}(s_{3}) = a_{1}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が最適になっていることがわかる. これは加法型特有の性質である. 一般に, 任意の評価関数に対しては, [[原始政策]], したがって[[一般政策 (逐次決定過程における)|一般政策]]が最適になる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] S. Iwamoto and T. Fujita, &amp;quot;Stochastic Decision-making in a Fuzzy Environment,&amp;quot; ''Journal of the Operations Research Society of Japan'', '''38''' (1995), 467-482.&lt;br /&gt;
&lt;br /&gt;
[2] T. Fujita and K. Tsurusaki, &amp;quot;Stochastic Optimization of Multiplicative Functions with Negative Value,&amp;quot; ''Journal of the Operations Research Society of Japan'', '''41''' (1998), 351-373.  &lt;br /&gt;
&lt;br /&gt;
[3] S. Iwamoto, K. Tsurusaki and T. Fujita, &amp;quot;Conditional Decision-making in a Fuzzy Environment,&amp;quot; ''Journal of the Operations Research Society of Japan'', '''42''' (1999), 198-218.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E4%B8%A1%E7%9A%84%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=5021</id>
		<title>《両的計画》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E4%B8%A1%E7%9A%84%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=5021"/>
		<updated>2007-07-16T13:21:37Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【りょうてきけいかく (bynamic programming)】'''&lt;br /&gt;
&lt;br /&gt;
　動的計画法は単調性 monotonicity と再帰性 recursiveness (可分性 separability) の下で適用される. この単調性は目的関数の「非減少性」を意味しているが, これを両調性 bitonicity「非減少性または非増加性のいずれか」まで拡大解釈すると, より広い逐次決定過程が考えられる. これを[[両的計画]]と呼ぶ. 特に, 確率システム上では[[マルコフ両決定過程]][3]という. これは確率的動的計画法を単にマルコフ決定過程ということに準じている.&lt;br /&gt;
&lt;br /&gt;
　両的計画法によって最大化問題を解く場合, 与問題に対する部分最大化問題群ばかりでなく部分最小化問題群をも考える必要がある. このとき, 最大値関数と最小値関数の間に成り立つ連立再帰式を[[両帰式 (動的計画法における)|両帰式]]という. [[負値乗法型評価系]][1], [[負値乗加法型評価系]] [2] の最適化問題や[[最短最長ルート問題]]などは両帰式で解ける.&lt;br /&gt;
&lt;br /&gt;
　さて, 逐次決定過程が次の要素で与えられるとしよう：&lt;br /&gt;
&lt;br /&gt;
　&lt;br /&gt;
　&lt;br /&gt;
:&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; は状態空間, &amp;lt;math&amp;gt;s_{n} \in S\, &amp;lt;/math&amp;gt; は第&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;状態, &amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;は決定空間&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;A(s_{n})\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;s_{n}\, &amp;lt;/math&amp;gt;での可能決定空間, &amp;lt;math&amp;gt;a_{n} \in A(s_{n})\, &amp;lt;/math&amp;gt;は第&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;決定&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;r : S \times A \to \mathbf{R}^{1}&amp;lt;/math&amp;gt;は利得関数, &amp;lt;math&amp;gt;\beta : S \times A \to (-1,\,1)\, &amp;lt;/math&amp;gt;は割引き関数&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;k : S \to \mathbf{R}^{1}\, &amp;lt;/math&amp;gt;は終端関数, &amp;lt;math&amp;gt;T : S \times A \to S\, &amp;lt;/math&amp;gt;は状態変換&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;p = \{p(t|s,a)\}\, &amp;lt;/math&amp;gt;はマルコフ推移法則, &amp;lt;math&amp;gt;\sum_{t \in S}p(t|s,a) = 1, p(t|s,a) \ge 0\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
このとき, 確定系上の負値乗加法評価系の最大化または最小化は&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{lll}&lt;br /&gt;
{\rm max.~and~min.} &amp;amp; r_{1} + \beta_{1}r_{2} +&lt;br /&gt;
 \beta_{1}\beta_{2}r_{3} + \cdots   \\&lt;br /&gt;
&amp;amp; + \beta_{1}\beta_{2} \cdots \beta_{N-1}r_{N} +&lt;br /&gt;
 \beta_{1}\beta_{2} \cdots \beta_{N}k \\&lt;br /&gt;
\mbox{s. t.} \; T(s_n,a_n) = &amp;amp;  s_{n+1}, ~ a_{n} \in A(s_{n}) \quad (n = 1, 2, \ldots, N), &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で表わされる. ただし &amp;lt;math&amp;gt;r_{n} = r(s_{n},a_{n}),~~\beta_{n}= \beta(s_{n},a_{n})\, &amp;lt;/math&amp;gt;.  このとき, 第&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;段の状態  &amp;lt;math&amp;gt;s_{n}\, &amp;lt;/math&amp;gt; から始まる部分問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{lll}&lt;br /&gt;
{\rm max.~and~min.} &amp;amp; r_{n} + \beta_{n}r_{n+1} +&lt;br /&gt;
 \beta_{n}\beta_{n+1}r_{n+2} + \cdots   \\&lt;br /&gt;
&amp;amp; + \beta_{n}\beta_{n+1} \cdots \beta_{N-1}r_{N} +&lt;br /&gt;
 \beta_{n}\beta_{n+1} \cdots \beta_{N}k   \\&lt;br /&gt;
\mbox{s. t.} \; T(s_m,a_m) = &amp;amp; s_{m+1}, ~ a_{m} \in A(s_{m}) \quad (m = n, n+1, \ldots, N ),   &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の最大値を &amp;lt;math&amp;gt;U_{n}(s_{n})\, &amp;lt;/math&amp;gt;, 最小値を &amp;lt;math&amp;gt;u_{n}(s_{n})\, &amp;lt;/math&amp;gt; とすると, 両最適値関数は両帰式&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;U_{n}(s) = \max_{a:-}T(s,a; u_{n+1}) \vee \max_{a:+}T(s,a; U_{n+1})\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;u_{n}(s) = \min_{a:-}T(s,a; U_{n+1}) \wedge \min_{a:+}T(s,a; u_{n+1})&lt;br /&gt;
\quad  \quad  \mbox{(1)}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;U_{N+1}(s) = u_{N+1}(s) = k(s)\, &amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を満たす. ここに~  &amp;lt;math&amp;gt;T(s,a; w) := r(s,a) + \beta(s,a)w(T(s,a)), ~ a:-(+)\, &amp;lt;/math&amp;gt;は &amp;lt;math&amp;gt;\beta(s,a) &amp;lt;(\ge)\, 0\, &amp;lt;/math&amp;gt; なる &amp;lt;math&amp;gt;a\, &amp;lt;/math&amp;gt; である.&lt;br /&gt;
&lt;br /&gt;
　また, マルコフ推移法則 &amp;lt;math&amp;gt;p = \{p(t|s,a)\}\, &amp;lt;/math&amp;gt; 上での期待値最適化問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
{\rm max.~and~min.} &amp;amp; E[\,r_{1} + \beta_{1}r_{2} +&lt;br /&gt;
 \beta_{1}\beta_{2}r_{3} + \cdots   \\&lt;br /&gt;
&amp;amp; + \beta_{1}\beta_{2} \cdots \beta_{N-1}r_{N} +&lt;br /&gt;
 \beta_{1}\beta_{2} \cdots \beta_{N}k\,] &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\mbox{s. t.} \; \; p(\cdot|s_n,a_n) ~ \sim s_{n+1}, ~ a_{n} \in A(s_{n}) \;&lt;br /&gt;
  (n = 1,2, \ldots ), \, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の両帰式は一次変換&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;T(s,a; w) := r(s,a) + \beta(s,a) {\displaystyle \sum_{t \in S}w(t)p(t|s,a)}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
を用いて(1)と同じ型で与えられる[4]. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. Bellman, ''Dynamic Programming'', Princeton Univ. Press, 1957.  &lt;br /&gt;
&lt;br /&gt;
[2] S. Iwamoto, &amp;quot;From Dynamic Programming to Bynamic programming,&amp;quot; ''Journal of Mathematical Analysis and Applications'', '''177''' (1993), 56-74.  &lt;br /&gt;
&lt;br /&gt;
[3] S. Iwamoto, &amp;quot;On Bidecision Processes,&amp;quot; ''Journal of Mathematical Analysis and Applications'', '''187''' (1994), 676-699.&lt;br /&gt;
&lt;br /&gt;
[4] T. Fujita and K. Tsurusaki, &amp;quot;Stochastic Optimization of Multiplicative Functions with Negative Value,&amp;quot; ''Journal of the Operations Research Society of Japan'', '''41''' (1998), 351-373.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%8B%95%E7%9A%84%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=5020</id>
		<title>《動的計画》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%8B%95%E7%9A%84%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=5020"/>
		<updated>2007-07-16T13:13:22Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【どうてきけいかく (dynamic programming)】'''&lt;br /&gt;
&lt;br /&gt;
　多変数最適化問題の目的関数が再帰性(可分性)と単調性をもち, 制約条件に逐次性があるとき, [[再帰式 (動的計画法の)|再帰式]] を導いて, これを１変数ずつ解いて最後に与問題の最適解を求めようとする方法を, [[動的計画]](dynamic programming)と呼ぶ. 原理としては  &amp;lt;math&amp;gt;\mbox{(i)}\, &amp;lt;/math&amp;gt; [[最適性の原理]] (principle of optimality),  &amp;lt;math&amp;gt;\mbox{(ii)}\, &amp;lt;/math&amp;gt;  [[不変埋没原理]](principle of invariant imbedding),  &amp;lt;math&amp;gt;\mbox{(iii)}\, &amp;lt;/math&amp;gt;  因果律の原理(principle of causality), の三つに基づく[1]. 最適性の原理には &amp;lt;math&amp;gt;\mbox{(1)}\, &amp;lt;/math&amp;gt;  オリジナル版,  &amp;lt;math&amp;gt;\mbox{(2)}\, &amp;lt;/math&amp;gt;  シンプル版,  &amp;lt;math&amp;gt;\mbox{ (3)}\, &amp;lt;/math&amp;gt;  &amp;quot;&amp;lt;math&amp;gt;\mbox{Life}\, &amp;lt;/math&amp;gt;&amp;quot;版,  &amp;lt;math&amp;gt;\mbox{(4)}\, &amp;lt;/math&amp;gt;  構造解析版,  &amp;lt;math&amp;gt;\mbox{(5)}\, &amp;lt;/math&amp;gt;  数学版, などがある[9]. 数学的には[[マックスマックス定理 (逐次過程における)|マックスマックス定理]] に遡ることができる[2][4]. 応用面では, [[逐次決定過程]] [3][6]の基本原理として用いられ, マルコフ決定過程の政策改良法, 最短経路問題のダイクストラ法, 巡回セールスマン問題など種々の最適化問題の解法としてアルゴリズムに組み込まれている.&lt;br /&gt;
&lt;br /&gt;
　一般に, 再帰型関数 &amp;lt;math&amp;gt;h : [0, \infty)^{N} \to \mathbf{R}^{1}\, &amp;lt;/math&amp;gt; は&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;h(x_{1}, x_{2},  \ldots , x_{N}) =&lt;br /&gt;
 h_{1}(x_{1};h_{2}(x_{2};\ldots , h_{N-1}(x_{N-1};h_{N}(x_{N})) \ldots ))\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で表わされる. このとき, 部分関数 &amp;lt;math&amp;gt;h_{n} : [0, \infty)^{N-n+1} \to \mathbf{R}^{1}\, &amp;lt;/math&amp;gt; を&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;h_{n}(x_{n}, \ldots , x_{N}) := h_{n}(x_{n};\ldots ,&lt;br /&gt;
 h_{N-1}(x_{N-1};h_{N}(x_{N})) \ldots )\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で定義する. 構成要素の１変数関数 &amp;lt;math&amp;gt;h_{n}(x;\cdot), h_{N}(\cdot)\, &amp;lt;/math&amp;gt; がすべて単調な(狭義単調な)とき, 特に単調性(狭義単調性)をもつ再帰型関数という. 単調性をもつ再帰型関数 &amp;lt;math&amp;gt;f,\, g&amp;lt;/math&amp;gt; を目的式と制約式にする主問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mbox{P}(c) \quad&lt;br /&gt;
\begin{array}{lll}&lt;br /&gt;
\mbox{max.} &amp;amp; f(x_{1}, x_{2},  \ldots , x_{N})    \\&lt;br /&gt;
\mbox{s. t.}&amp;amp; g(x_{1}, x_{2},  \ldots , x_{N}) \le c, &amp;amp; x_{1},x_{2},\ldots ,x_{N} \ge 0,    &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の解(最大値関数と最大点関数)は次のように求められる：&lt;br /&gt;
&lt;br /&gt;
主問題 &amp;lt;math&amp;gt;\mbox{P}(c)\, &amp;lt;/math&amp;gt; を部分問題群 &amp;lt;math&amp;gt;{\mathbf P} = \{\mbox{P}_{n}(c)\}:\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mbox{P}_{n}(c) \quad&lt;br /&gt;
\begin{array}{lll}&lt;br /&gt;
\mbox{max.} &amp;amp; f_{n}(x_{n}, \ldots , x_{N})    \\&lt;br /&gt;
\mbox{s. t.}&amp;amp; g_{n}(x_{n}, \ldots , x_{N}) \le c, &amp;amp; x_{n}, \ldots ,x_{N} \ge 0,    &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
に埋め込み, この最大値を  &amp;lt;math&amp;gt;u_{n}(c)\, &amp;lt;/math&amp;gt; とする. このとき, 制約式の狭義単調性と両式の連続性を仮定すると, 再帰式&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;u_{n}(c)  =\max_{x \ge 0} \, f_{n}(\,x\,; &lt;br /&gt;
u_{n+1}(g_{nx}^{-1}(c))) \quad 1 \le n \le N-1\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;u_{N}(c) =f_{N}(g_{N}^{-1}(c))\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が成り立つ. ただし, &amp;lt;math&amp;gt;g^{-1}_{nx}(\cdot)\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;g_{n}(x;\cdot)\, &amp;lt;/math&amp;gt; の逆関数. この再帰式を後向きに解いて, 最後に主問題の最大値 &amp;lt;math&amp;gt;u_{1}(c)\, &amp;lt;/math&amp;gt; が得られる. これが動的計画法である. さらに, 主問題 &amp;lt;math&amp;gt;\mbox{P}(c)\, &amp;lt;/math&amp;gt; と逆問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mbox{I}(c) \quad&lt;br /&gt;
\begin{array}{lll}&lt;br /&gt;
\mbox{min.} &amp;amp; g(x_{1}, x_{2},  \ldots , x_{N})    \\&lt;br /&gt;
\mbox{s. t.}&amp;amp; f(x_{1}, x_{2},  \ldots , x_{N}) \ge c, &amp;amp; x_{1},x_{2},\ldots ,x_{N} \ge 0,   &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の解(最小値関数と最小点関数)の間には互いに逆関数の関係にある([[逆定理 (動的計画法における)|逆定理]] [5]). これは線形計画における双対定理に類似して, 動的計画の双対定理と考えられる[11]. &lt;br /&gt;
&lt;br /&gt;
　また, 狭義単調性をもつ再帰型関数 &amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt; が終端値 &amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt; をもつときは&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;h(x_{1}, \ldots , x_{N}, k) = h_{1}(x_{1};\ldots , h_{N-1}(x_{N-1};h_{N}(x_{N};k)) \ldots )\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で表わされる. これに対して反転関数(逐次パラメトリック逆関数) &amp;lt;math&amp;gt;h^{-1} : \mathbf{R}^{N+1}  \to \mathbf{R}^{1}\, &amp;lt;/math&amp;gt; を&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;h^{-1}(x_{N}, \ldots , x_{2}, x_{1}, c) &lt;br /&gt;
:\;=\; h^{-1}_{N}(x_{N};\ldots , h^{-1}_{2}(x_{2};h^{-1}_{1}(x_{1};c)) \ldots&lt;br /&gt;
 )\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で定義する. このとき, 目的式 &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;, 制約式 &amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt; (ただし &amp;lt;math&amp;gt;g_{N}(x_{N};l)&lt;br /&gt;
 := g_{N}(x_{N}) + l )\, &amp;lt;/math&amp;gt;をもつ主問題の反転問題を&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mbox{R}(c) \quad&lt;br /&gt;
\begin{array}{lll}&lt;br /&gt;
\mbox{min.} &amp;amp; f^{-1}(x_{N}, \ldots , x_{1}, u_{1}^{-1}(c))   \\&lt;br /&gt;
\mbox{s. t.}&amp;amp; g^{-1}(x_{N}, \ldots , x_{1}, c) = 0, &amp;amp; x_{N},\ldots ,x_{1} \ge 0,  &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で考えると, 反転問題の最小値は主問題の終端値となる ([[反転定理]] [7]).&lt;br /&gt;
&lt;br /&gt;
　さらに, 準線形化, 最大変換(共役変換)による双対理論を組み込んだ[[三面鏡理論]] [8]が制御過程上で展開されている. 逆問題, 反転問題, 双対問題は基本的に動的計画法で解くことができるが, それぞれの問題の最適解は直接解くことなく, 対応する定理によって得られる[7]. &lt;br /&gt;
&lt;br /&gt;
　再帰性, 単調性がない場合の最適化としては, 非可分性との関連で結合性などの下で[[事前条件付き決定過程]], [[事後条件付き決定過程]][10]が[[ファジィ動的計画]], 非加法型再帰的効用関数の経済学などで研究されている. これらの問題はマルコフ政策のクラスで再帰式が導かれる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. Bellman, ''Dynamic Programming'', Princeton Univ. Press, 1957. &lt;br /&gt;
&lt;br /&gt;
[2] G. H. Hardy, J. E. littlewood and G. P&amp;amp;oacute;lya, ''Inequalities, 2nd ed.,'' Cambridge Univ. Press, 1952. &lt;br /&gt;
&lt;br /&gt;
[3] 茨木俊秀,『組合せ最適化の理論』, 電子通信学会, 1979.&lt;br /&gt;
&lt;br /&gt;
[4] 伊理正夫ほか, 座談会「最大問題最小問題をめぐって」,『数学セミナー』, 7月号 (1966), 40-48.&lt;br /&gt;
&lt;br /&gt;
[5] S. Iwamoto, &amp;quot;Inverse Theorems in Dynamic Programming I, II, III,&amp;quot; ''Journal of Mathematical Analysis and Applications'', '''58''' (1977), 113-134, 249-279, 439-448. &lt;br /&gt;
&lt;br /&gt;
[6] 岩本誠一,「逐次決定過程としての動的計画論I,II」,『オペレーションズ・リサーチ』, '''22''' (1977), 427-434, 496-501.&lt;br /&gt;
&lt;br /&gt;
[7] 岩本誠一,『動的計画論』, 九州大学出版会(経済工学シリーズ), 1987.&lt;br /&gt;
&lt;br /&gt;
[8] S. Iwamoto, &amp;quot;A three mirror problem on dynamic programming,&amp;quot; in ''Proceedings of the Third Bellman Continuum Workshop'', 363-382, 1989.&lt;br /&gt;
&lt;br /&gt;
[9] 岩本誠一,「動的計画の最近の進歩」, 第２回ＲＡＭＰシンポジウム論文集, 129-140, 1990.&lt;br /&gt;
&lt;br /&gt;
[10] S. Iwamoto, &amp;quot;Conditional decision processes with recursive reward function,&amp;quot;''Journal of Mathematical Analysis and Applications'', '''230''' (1999), 193-210.&lt;br /&gt;
&lt;br /&gt;
[11] 近藤次郎,『最適化法』, コロナ社, 1984.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%AD%E3%83%90%E3%82%B9%E3%83%88%E5%8C%96%E6%8A%80%E8%A1%93%E3%80%8B&amp;diff=5019</id>
		<title>《ロバスト化技術》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%AD%E3%83%90%E3%82%B9%E3%83%88%E5%8C%96%E6%8A%80%E8%A1%93%E3%80%8B&amp;diff=5019"/>
		<updated>2007-07-16T13:06:13Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ろばすとかぎじゅつ (design of robust algorithms) 】'''&lt;br /&gt;
&lt;br /&gt;
　幾何アルゴリズム理論は, 無限精度で計算ができるという前提のもとで発展してきたため, 有限精度の計算しかできない現実のコンピュータでそのまま走らせても正常に動作するとは限らない. 誤差のために対象の位置関係の判定を誤ると, 矛盾が生じてアルゴリズムが破綻してしまう. このように数値的に不安定なアルゴリズムを, 有限精度で計算を行っても破綻しないソフトウェアへ改良する技術は, [[ロバスト化技術]] (design of robust algorithms) とよばれる. &lt;br /&gt;
&lt;br /&gt;
　代表的なロバスト化技術の一つは, 対象の位置関係の判定を正確に行えるだけの十分高い精度の計算を用いる方法である. これは[[厳密計算法]] (exact arithmetic method) とよばれる. 点の座標を始めとする幾何データはそもそも有限の精度でコンピュータに与えられる. したがって, それに有限回の四則演算を施した結果も離散的な値しかとりえない. 幾何的位置関係は, そのような計算結果の符号によって判定されるから, 正確な判定に必要な計算精度も有限ですむ. これが厳密計算法の原理である [1, 2]. &lt;br /&gt;
&lt;br /&gt;
　たとえば 2 次元平面内の点 &amp;lt;math&amp;gt;{\rm P}_i \; (i=1,2, \cdots)\, &amp;lt;/math&amp;gt; の座標 &amp;lt;math&amp;gt;(x_i,y_i)\, &amp;lt;/math&amp;gt;が &amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt; ビットの整数で与えられた場面で, 点 &amp;lt;math&amp;gt;{\rm P}_{2i-1}\, &amp;lt;/math&amp;gt;と点 &amp;lt;math&amp;gt;{\rm P}_{2i}\, &amp;lt;/math&amp;gt; を通る 3直線 &amp;lt;math&amp;gt;(i=1,2,3)\, &amp;lt;/math&amp;gt; が同一の点で交わるか否かを判定したいとする. 通常の整数の表現は絶対値に &amp;lt;math&amp;gt;k-1\, &amp;lt;/math&amp;gt; ビット, 符号に 1 ビットを使っているとみなすことができるので&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;|x_i|, |y_i| \leq 2^{k-1}-1 \quad (i=1,2, \cdots )\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
である. 一方, 3 直線が 1 点で交わるための必要十分条件は, 3 本の直線を表す方程式の係数行列の行列式&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;F=\left| \begin{array}{ccc}&lt;br /&gt;
y_2-y_1 &amp;amp; x_1-x_2 &amp;amp; x_2y_1-x_1y_2\\&lt;br /&gt;
y_4-y_3 &amp;amp; x_3-x_4 &amp;amp; x_4y_3-x_3y_4\\&lt;br /&gt;
y_6-y_5 &amp;amp; x_5-x_6 &amp;amp; x_6y_5-x_5y_6 \end{array} \right|\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が 0 となることである. アダマールの不等式(行列式の絶対値は, その行列の列ベクトルの大きさの積より大きくない)より&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;F &amp;lt; (\sqrt{3}\cdot 2^k) (\sqrt{3}\cdot 2^k) (\sqrt{3}\cdot 2^{2k-1}) =3\sqrt{3}2^{4k-1}&amp;lt; 2^{4k+2}-1\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
である (上の不等式は, たとえば第 1 列ベクトルの大きさは&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\sqrt{(y_2-y_1)^2+(y_4-y_3)^2+(y_6-y_5)^2}\leq \sqrt{3 \cdot 2^{2k}}=\sqrt{3}\cdot 2^k\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
であることなどから導ける). したがって &amp;lt;math&amp;gt;4k+3\, &amp;lt;/math&amp;gt; ビットの長さの整数表現を用いて &amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt; を計算すれば正しく値が計算でき, その符号も正しく判定できる. このように厳密計算法では, おのおのの計算式に対して, その符号を正しく知るために必要な精度の上限を見積り, その精度を確保した上で判定のための計算を行なう. これによって, 矛盾の発生を防ぐことができる. &lt;br /&gt;
&lt;br /&gt;
　厳密計算法では位置関係が厳密に判定できるために三角形の 3 頂点が一直線上に並ぶなどの退化した状況も厳密にわかる. したがって, それぞれの退化に対する例外処理を整備しないとアルゴリズムは完成しない. しかし, 例外処理のためのソフトウェア作りは苦痛の多い作業である. これを回避するための自動退化解消法が[[記号摂動]] (symbolic perturbation) とよばれる技術である. 幾何アルゴリズムの入力データとなる座標値などの数値は整数環あるいは有理数体の要素とみなせる. ここに無限小を表す記号 &amp;lt;math&amp;gt;\varepsilon\, &amp;lt;/math&amp;gt;を導入し, 入力データに &amp;lt;math&amp;gt;\varepsilon&amp;lt;/math&amp;gt; の多項式を加えることによって, 入力データに無限小の摂動を与える. このようにして数値の世界を&amp;lt;math&amp;gt;\varepsilon\, &amp;lt;/math&amp;gt; の多項式の世界へ拡張し, この多項式の世界で計算と符号判定を行なう. このとき, 入力データに与える摂動の大きさを工夫すると計算結果が決して 0 にならないようにすることができる. 退化とは正か負かを判定すべき値が 0 になることであるから, この摂動によって退化の生じない世界を自動的に作ることができる. 記号摂動を用いると, 例外は生じないものと仮定してソフトウェア作りができ, しかもでき上がったソフトウェアは退化した入力に対しても正常に動作する. 詳しくは文献 [1, 3] などを参照されたい. &lt;br /&gt;
&lt;br /&gt;
　もう一つの代表的なロバスト化技術に[[位相優先法]] (topology-oriented method) がある. これは, 厳密計算法とは逆に数値計算結果はもともと誤差を含むものであるという前提に立って, 対象の位相的構造の一貫性を保つことを数値計算結果より優先順位の高い情報とみなすことによって, 位相的矛盾の発生を防ぐ方法である. この方法は, 通常の浮動小数点計算が利用できるため処理速度が速いうえに, 例外処理がいらないという利点をもつ. ただし, 厳密計算法ほどその適用方法は機械的ではない. 扱う幾何的対象がもつべき位相的性質を抽出してそれを利用するから, 扱う問題ごとの個別の工夫が必要である. 厳密計算法は初心者用技術, 位相優先法は中級者向け技術といえよう. この手法の詳細は文献 [1] などを参照されたい. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] 杉原厚吉, 『計算幾何工学』, 培風館, 1994.&lt;br /&gt;
&lt;br /&gt;
[2] C. Yap and T. Dub&amp;amp;eacute;, &amp;quot;The Exact Computation Paradigm,&amp;quot; in ''Computing in Euclidean Geometry, Second Edition'', D.-Z. Du and F. Hwang, eds., World Scientific, Singapore, 452-492, 1995.&lt;br /&gt;
&lt;br /&gt;
[3] H. Edelsbrunner and E. P. M&amp;amp;uuml;cke, &amp;quot;Simulation of Simplicity -A Technique to Cope with Degenerate Cases in Geometric Algorithms,&amp;quot; in ''Proceedings of the 4th Annual Symposium on Computational Geometry'', Urbana-Champaign, Illinois, 118-133, 1988.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%A9%E3%83%B3%E3%83%80%E3%83%9E%E3%82%A4%E3%82%BC%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3%E3%80%8B&amp;diff=5018</id>
		<title>《ランダマイゼーション》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%A9%E3%83%B3%E3%83%80%E3%83%9E%E3%82%A4%E3%82%BC%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3%E3%80%8B&amp;diff=5018"/>
		<updated>2007-07-16T13:03:49Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【らんだまいぜーしょん (randomization) 】'''&lt;br /&gt;
&lt;br /&gt;
　ランダマイゼーション(randomization)は, アルゴリズムの中にランダムな要素を導入し, それにより最悪の場合にとらわれない簡単で実際に速いアルゴリズムを構成しようという手法である. ランダマイザーションすることによって得られるアルゴリズムをランダム化アルゴリズムとよぶ. メタヒューリスティックスのシミュレーティッド・アニーリングから素数判定のランダム化数論アルゴリズムまで幅広く用いられている. ランダマイゼーションは, アルゴリズムに対する入力になんらかの確率分布を仮定して計算時間を平均的に評価するとかいうのではない. 教科書も既にあり, [2] は全般的なアルゴリズムについて, [3] は計算幾何のアルゴリズムについて詳しい. &lt;br /&gt;
&lt;br /&gt;
　本項では, 計算幾何の問題に対するランダマイゼーションの代表的手法についてまとめる. 代表的手法としては次の2つのものがあり, 以下その説明をする. &lt;br /&gt;
&lt;br /&gt;
'''ランダム抽出(random sampling)'''　ランダムに選ぶことにより全体を反映した部分集合を定め, その抽出した部分集合の情報をフルに活用するもの&lt;br /&gt;
&lt;br /&gt;
'''ランダム順添加法(randomized incremental method)'''　アルゴリズムの構成のもっとも簡単なパラダイムである逐次添加法において, 添加順をランダム化する方法で, 添加法の実用性を示すものでもある. &lt;br /&gt;
&lt;br /&gt;
'''(a) ランダム抽出'''　ランダム抽出法の目指すところは, 部分で全体を表すということである. そうできると, 部分を計算するだけで情報がある程度の得られるという計算量の観点からの利点がある. &lt;br /&gt;
&lt;br /&gt;
　代表的な例で, 平面上の&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個の点の集合&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の&amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt;-近似&amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt;を考える. 任意の&amp;lt;math&amp;gt;\epsilon\ge0\, &amp;lt;/math&amp;gt;に対して, &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の部分集合&amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt;が&amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt;近似である}とは, 任意の半平面&amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt;に対して次式が成り立つことをいう. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\left| {|S\cap h|\over|S|}-{|T\cap h|\over |T|}\right|&lt;br /&gt;
\le\epsilon\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　任意の&amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt;に対して, &amp;lt;math&amp;gt;T=S\, &amp;lt;/math&amp;gt;とすればそれは&amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt;近似になっているから, このような&amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt;近似の存在は保証されるので, &amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt;のサイズをどこまで小さくできるかがポイントである. ランダム抽出の理論を適用すると, 次の定理が成り立つ( [1] 参照). &lt;br /&gt;
&lt;br /&gt;
'''定理.''' 任意の&amp;lt;math&amp;gt;\epsilon,\ \delta&amp;gt;0\, &amp;lt;/math&amp;gt;に対して, 点集合&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;から少なくとも&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;m\ge{16\over\epsilon^2}\left(3\ln{48\over\epsilon^2}+\ln{4\over\delta}\right)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
なる&amp;lt;math&amp;gt;m\, &amp;lt;/math&amp;gt;点をランダムかつ独立に選んで得られる集合&amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt;は, 少なくとも&amp;lt;math&amp;gt;1-\delta\, &amp;lt;/math&amp;gt;の確率で&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の&amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt;-近似である. &lt;br /&gt;
&lt;br /&gt;
　この定理より, 任意の&amp;lt;math&amp;gt;\epsilon&amp;gt;0\, &amp;lt;/math&amp;gt;に対して, &amp;lt;math&amp;gt;\delta\, &amp;lt;/math&amp;gt;を1に近付けても, ある確率で&amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt;近似が単純なサンプリングで求められということがわかる. 確率が正ならその事象が存在するので, ほぼ定理のサイズの&amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt;-近似の存在定理も導かれる. &lt;br /&gt;
　このように&amp;lt;math&amp;gt;\epsilon\, &amp;lt;/math&amp;gt;-近似は全体の点数に関係のない点数の部分集合で, 半平面に含まれる点数に関する近似を与えており, 部分によって全体を表現できている. このようなランダム抽出に関する定理は, アルゴリズム構成面で自然と分割統治に使えて有用である. さらに理論の観点からは, 各ニューロンが単純な線形しきい値関数である場合のニューラルネットでの学習能力と関係している. &lt;br /&gt;
&lt;br /&gt;
'''(b) ランダム順添加法'''　ランダム順添加法も有用な方法である. これは, アルゴリズム設計のパラダイムの1つである逐次添加法 (incremental method)をもとにするものである. 従来の逐次添加法は, &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;要素の問題を解くときに, 最初は定数個(例えば2,3)の要素の部分問題に対する解から始めて, &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;個の要素の部分問題の解があるとき, &amp;lt;math&amp;gt;i+1\, &amp;lt;/math&amp;gt;番目の要素をそこに加えて&amp;lt;math&amp;gt;i+1\, &amp;lt;/math&amp;gt;個の要素の部分問題に対する解をつくり, これを&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個全体に対する解が得られるまで繰り返す方法である. このとき, &amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;個の要素の部分問題に対する解がわかっていれば, 通常それに1個加えた&amp;lt;math&amp;gt;i+1\, &amp;lt;/math&amp;gt;個の部分問題に対する解は, ゼロからその&amp;lt;math&amp;gt;i+1\, &amp;lt;/math&amp;gt;個の問題を解くのに比べて, はるかに効率よく求めることができるということが, 高速アルゴリズムを得るために役立つ. たとえば, 挿入ソートなどは, この典型例である. &lt;br /&gt;
&lt;br /&gt;
　ランダム順添加法では, ランダマイゼーションにより要素をランダム順に並べ, その順に逐次添加を行なっていく. それによって, 最悪の場合を考えたとき, 単に与えられた順で添加していくと, たいてい逐次添加法にとっては都合の悪い順番が存在し, その場合の計算量が最悪計算時間となってしまうことが多いのに対し, ランダマイゼーションによってそれを避けることができる. これは, 入力になんらかの分布を仮定して平均計算時間を評価するのと近く, ただ複雑な問題では入力の分布として妥当なものを考えることが難しいので, 作為的な入力分布を仮定するより, アルゴリズムの中でランダマイゼーションした方がより汎用的な成果が得られる. また, ランダマイゼーションアルゴリズムといっても, もし, 入力の分布に関して, そう悪い例が出てこなさそうであれば, 実際には単に与えられた順で添加をしていけばよいのである. このランダム順添加法は, 低次元線形計画や凸包構成など幅広く適用されている. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] 今井浩, 今井桂子, 『計算幾何学』, 共立出版, 1994.&lt;br /&gt;
&lt;br /&gt;
[2] R. Motwani and P. Raghavan, ''Randomized Algorithms,'' Cambridge University Press, 1995.&lt;br /&gt;
&lt;br /&gt;
[3] K. Mulmuley, ''Computational Geometry: An Introduction Through Randomized Algorithms,'' Prentice-Hall, 1994.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%8F%8C%E5%AF%BE%E5%A4%89%E6%8F%9B%E3%80%8B&amp;diff=5017</id>
		<title>《双対変換》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%8F%8C%E5%AF%BE%E5%A4%89%E6%8F%9B%E3%80%8B&amp;diff=5017"/>
		<updated>2007-07-16T13:00:48Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【そうついへんかん (dual transformation) 】'''&lt;br /&gt;
&lt;br /&gt;
　ORの様々な理論において，双対性は重要な役割を果たす．これは計算幾何でも同様で，特に双対性に対応する変換によって，ある問題を別のよりわかりやすい問題に変換して解くことができる．詳細については， [1, 2, 3]参照．&lt;br /&gt;
&lt;br /&gt;
　まず，&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元空間の2次曲面の極と極面に関する[[極変換]]について述べる．&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元空間の超平面は，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;a_1x_1+a_2x_2+\cdots+a_dx_d+a_{d+1}=0\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で表される．&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元空間の2次曲面は，&amp;lt;math&amp;gt;(d+1)\times (d+1)\, &amp;lt;/math&amp;gt;対称行列&amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;(d+1)\, &amp;lt;/math&amp;gt;次元ベクトル &amp;lt;math&amp;gt;\boldsymbol{x}=(x_1,x_2,\ldots,x_d,1)^{\top}\, &amp;lt;/math&amp;gt;を用いて， &amp;lt;math&amp;gt;\boldsymbol{x}^{\top} A \boldsymbol{x}=0\, &amp;lt;/math&amp;gt;と表せる．点&amp;lt;math&amp;gt;p=( \boldsymbol{p})=(p_1,p_2,\ldots,p_d)^{\top}\, &amp;lt;/math&amp;gt;に対して，方程式&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\boldsymbol{x}^{\top} A( \boldsymbol{p},1)=(x_1,x_2,\ldots,x_d,1)A&lt;br /&gt;
(p_1,p_2,\ldots,p_d,1)^{\top}=0\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
をみたす超平面&amp;lt;math&amp;gt;D(p)\, &amp;lt;/math&amp;gt;を対応させる．逆に定数ベクトル&amp;lt;math&amp;gt;p=(p_1,p_2,\ldots,p_d)^{\top}\, &amp;lt;/math&amp;gt;を用いて &amp;lt;math&amp;gt;\boldsymbol{x}^{\top} A( \boldsymbol{p},1)=0\, &amp;lt;/math&amp;gt;と書ける超平面&amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt;に対して点&amp;lt;math&amp;gt;D(h)=p\, &amp;lt;/math&amp;gt;を対応させる．明らかに&amp;lt;math&amp;gt;D(D(p))=p,D(D(h))=h\, &amp;lt;/math&amp;gt;であり，この変換&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;は[[双対変換]]である．点&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;と超平面&amp;lt;math&amp;gt;D(p)\, &amp;lt;/math&amp;gt; (点&amp;lt;math&amp;gt;D(h)\, &amp;lt;/math&amp;gt;と超平面&amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt;) は，2次曲面&amp;lt;math&amp;gt; \boldsymbol{x} A \boldsymbol{x}^{\top}=0\, &amp;lt;/math&amp;gt;に関する極と極面となる．2次曲面としては，円や放物線がよく用いられる．&lt;br /&gt;
&lt;br /&gt;
　以下，簡単のため2次元の場合を述べる．放物線&amp;lt;math&amp;gt;y=(x^2)/2\, &amp;lt;/math&amp;gt;を用いれば，点&amp;lt;math&amp;gt;p=(p_x,p_y)\, &amp;lt;/math&amp;gt;に対する極線&amp;lt;math&amp;gt;D(p)\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;y=p_xx-p_y\, &amp;lt;/math&amp;gt;となる．&amp;lt;math&amp;gt;y\, &amp;lt;/math&amp;gt;軸に平行でない直線&amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt;は，傾き&amp;lt;math&amp;gt;p_x\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;y\, &amp;lt;/math&amp;gt;切片のマイナスの&amp;lt;math&amp;gt;p_y\, &amp;lt;/math&amp;gt;を用いて&amp;lt;math&amp;gt;y=p_xx-p_y\, &amp;lt;/math&amp;gt;と表せ，&amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt;の極&amp;lt;math&amp;gt;D(h)\, &amp;lt;/math&amp;gt;は点&amp;lt;math&amp;gt;(p_x,p_y)\, &amp;lt;/math&amp;gt;となる．&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;が放物線上にあるとき，&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;での接線が&amp;lt;math&amp;gt;D(p)\, &amp;lt;/math&amp;gt;となる．&lt;br /&gt;
&lt;br /&gt;
　この変換は，接続関係(上下関係)を保存する．すなわち，点&amp;lt;math&amp;gt;p=(p_x,p_y)\, &amp;lt;/math&amp;gt;と直線&amp;lt;math&amp;gt;h\colon y=q_xx-q_y\, &amp;lt;/math&amp;gt;およびその双対変換&amp;lt;math&amp;gt;D(p)\colon y=p_xx-p_y\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;D(h)=(q_x,q_y)\, &amp;lt;/math&amp;gt;に対して&amp;lt;math&amp;gt;p_y+q_y\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;p_xq_x\, &amp;lt;/math&amp;gt;の大小関係に応じて以下のことが成立する．&lt;br /&gt;
&lt;br /&gt;
:(a) 点&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;が直線&amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt;上にあるとき，およびそのときのみ，点&amp;lt;math&amp;gt;D(h)\, &amp;lt;/math&amp;gt;は直線&amp;lt;math&amp;gt;D(p)\, &amp;lt;/math&amp;gt;上にある&amp;lt;math&amp;gt;(p_y+q_y=p_xq_x)\, &amp;lt;/math&amp;gt;．&lt;br /&gt;
&lt;br /&gt;
:(b) 点&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;が直線&amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt;を境界とする上半平面(下半平面)にあるとき，およびそのときのみ，点&amp;lt;math&amp;gt;D(h)\, &amp;lt;/math&amp;gt;は直線&amp;lt;math&amp;gt;D(p)\, &amp;lt;/math&amp;gt;を境界とする上半平面(下半平面)にある．&lt;br /&gt;
&lt;br /&gt;
　接続関係(上下関係)の不変性は，2次曲線として円や楕円を用いて変換を定義しても成立し，一般の&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元空間でも成立する．点の集合はそれだけで扱うとばらばらで考えにくいため，アルゴリズム的にも上下関係など関係式がわかるように，この双対変換を適用して，直線(超平面)の集合からできる平面(空間)の交差図形を利用することがしばしば行われる．このとき，双対変換で1対1に対応するとともに，この関係式が保存され，直線(超平面)が交わって空間を分割することから問題がとらえやすくなる．このような直線(超平面)による平面(空間)の交差図形を[[アレンジメント]]と呼ぶ．アレンジメントの1つのセルに対応する[[凸多面体]]についても，ファセットを含む超平面で定まる半空間の交わりとしても，端点の凸包としても表せる．これは双対性の現れで，すべての次元の構成要素であるフェイス全体がなす束でも，対応する束の上下を反転すれば同じとなる双対性が成り立つ．したがって，双対性から半空間の交わりを求めることと，点集合の凸包を求めることとは，アルゴリズムの計算量の観点からは同じである．&lt;br /&gt;
&lt;br /&gt;
　2次曲線として円を用いた場合の極変換も重要である．このとき，原点以外の点&amp;lt;math&amp;gt;(p_x,p_y)\, &amp;lt;/math&amp;gt;は直線&amp;lt;math&amp;gt;p_xx+p_yy-1=0\, &amp;lt;/math&amp;gt;に変換される．この直線は，原点からの距離が原点と元の点&amp;lt;math&amp;gt;(p_x,p_y)\, &amp;lt;/math&amp;gt;の距離の逆数になっており，原点と元の点を結ぶ直線に垂直で，原点に関して元の点と同じ側の直線となる．&lt;br /&gt;
&lt;br /&gt;
　円に関する極変換の変形に反転がある．反転は，原点以外の点&amp;lt;math&amp;gt;(p_x,p_y)\, &amp;lt;/math&amp;gt;を上の極変換した直線への原点からの垂線の足に対応させる．反転により，原点を通る円は直線に変換される．この変換をもう1次元高い空間で行うと，球と平面の間の変換が得られる．たとえば、&amp;lt;math&amp;gt;(0,0,1)\, &amp;lt;/math&amp;gt;を中心とする半径1の球面を基本となる二次曲面として採用した場合の極変換では，&amp;lt;math&amp;gt;xy\, &amp;lt;/math&amp;gt;平面は&amp;lt;math&amp;gt;(0,0,1/2)\, &amp;lt;/math&amp;gt;を中心とする半径&amp;lt;math&amp;gt;1/2\, &amp;lt;/math&amp;gt;の球へ変換される．この変換は[[立体射影]] (stereographic projection) と呼ばれる．&lt;br /&gt;
&lt;br /&gt;
　さらなる変形として，画像処理で特に用いられている[[ハフ変換]] (Hough transformation) がある．2次元の直線を原点からこの直線への垂線の距離&amp;lt;math&amp;gt;r\, &amp;lt;/math&amp;gt;と直線と&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;軸がなす角度&amp;lt;math&amp;gt;\theta\, &amp;lt;/math&amp;gt;で表して，それを&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
直線　&amp;lt;math&amp;gt;x\sin\theta+y\cos\theta=r \ \mapsto\, &amp;lt;/math&amp;gt;　点　&amp;lt;math&amp;gt;(r,\theta)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
と変換する．Hough変換は，画像からの直線成分やさらには楕円などを抽出することによく用いられる．&lt;br /&gt;
&lt;br /&gt;
　極変換は2次曲線を核としていたが，核を一般の凸関数に拡張することもできる．この場合の双対変換は，Legendre変換と一般に呼ばれ，特に最適化の分野ではFenchelの共役性として知られている．この場合，核の凸関数の共役凸関数が定義でき，放物線&amp;lt;math&amp;gt;y=(x^2)/2\, &amp;lt;/math&amp;gt;は自己共役になっている．凸関数の共役性は，凸解析の基本概念である．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] H. Edelsbrunner, ''Algorithms in Combinatorial Geometry,'' Springer-Verlag, 1987.　邦訳(今井浩, 今井桂子訳), 『組合せ幾何学のアルゴリズム』，共立出版, 1995.&lt;br /&gt;
&lt;br /&gt;
[2] F. P. Preparata and M. I. Shamos, ''Computational Geometry: An Introduction,'' Springer-Verlag, 1985. 邦訳 (浅野孝夫, 浅野哲夫訳) , 『計算幾何学入門』, 総研出版, 1992.&lt;br /&gt;
&lt;br /&gt;
[3] 佐々木建昭, 今井浩, 浅野孝夫, 杉原厚吉, 『計算代数と計算幾何』, 岩波応用数学[方法9], 岩波書店, 1993.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E4%B8%89%E8%A7%92%E5%BD%A2%E5%88%86%E5%89%B2%E3%80%8B&amp;diff=5016</id>
		<title>《三角形分割》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E4%B8%89%E8%A7%92%E5%BD%A2%E5%88%86%E5%89%B2%E3%80%8B&amp;diff=5016"/>
		<updated>2007-07-16T12:53:23Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【さんかくけいぶんかつ (triangulation) 】'''&lt;br /&gt;
 &lt;br /&gt;
　点集合の三角形分割(triangulation)とは, 2次元においてはその凸包を2-単体 すなわち三角形に, 3次元では3-単体すなわち四面体に分割した構造である(四面体分割ともいう). 一般の次元の場合は単体分割あるいは簡単に三角形分割といわれる.  三角形分割は, 凸包・凸多面体とならんで基本的な幾何構造であり, 理論的に 重要であるだけでなく, コンピューターグラフィクスや有限要素解析・内挿でのメッシュ生成など広く応用がある.  &lt;br /&gt;
 &lt;br /&gt;
　&amp;lt;math&amp;gt;S=\{p_1,p_2,\ldots,p_n\}\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元の&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;点の集合, &amp;lt;math&amp;gt;\mbox{CH}(S)\, &amp;lt;/math&amp;gt; を&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の凸包とする. &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の三角形分割&amp;lt;math&amp;gt;\tau= \{S_1,S_2, \dots ,S_m\}\, &amp;lt;/math&amp;gt;と は,  次の条件を満たすものである.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{array}{ll} &lt;br /&gt;
1. &amp;amp; {\rm dim}\ {\rm CH}(S_i) = d, \ |S_i| = d+1, \ S_i\subseteq S  \quad (i = 1,2,\dots,m) \\&lt;br /&gt;
2. &amp;amp; \bigcup_{i=1}^m {\rm CH}(S_i) = {\rm CH}(S) \\&lt;br /&gt;
3. &amp;amp; {\rm CH}(S_i)\cap{\rm CH}(S_j)={\rm CH}(S_i\cap S_j) \ (i \neq j) &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　平面上の一般の位置にある点集合&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の点をすべて用いる三角形分割を考える. &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;のどの三角形分割も, オイラー(L. Euler)の公式から同じ数の三角形をもつ. また, 三角形分割の個数については, 三角形分割の平面性に着目して解析することにより &amp;lt;math&amp;gt;{\rm O}(2^{{\rm O}(n)})\, &amp;lt;/math&amp;gt;であることがいえる. 凸&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;角形の頂点の場合は, 三角形分割の個数は&amp;lt;math&amp;gt;\textstyle \frac{1}{n-1}{2n-4\choose n-2}\, &amp;lt;/math&amp;gt;である.  動的計画法を用いることにより, 多角形内部の三角形分割の数を数える ことは多項式時間で行えるが, 一般の点集合の三角形分割の個数を多項式時間 で数えることができるかどうかは未解決の問題である. 多数の三角形分割の中から1つ選ぶ際の基準として代表的なものを上げる.  &lt;br /&gt;
&lt;br /&gt;
:1. (最小角最大) 三角形分割での全角度の最小のもの(最小角)を最大にする&lt;br /&gt;
&lt;br /&gt;
:2. (最大角最小) 三角形分割での全角度の最大のもの(最大角)を最小にする &lt;br /&gt;
&lt;br /&gt;
:3. (重み最小) 三角形分割の辺長の総和を最小にする &lt;br /&gt;
&lt;br /&gt;
:4. (最大最小包含円最小) 三角形分割の各三角形の最小包含円(鈍角三角形の場合, 鈍角の対辺を直径にする円)のうち最大のものを最小にする&lt;br /&gt;
&lt;br /&gt;
:5. (最大アスペクト比最小) 三角形分割の各三角形のアスペクト比(三角形の外接円半径と内接円半径の比)の最大のものを最小にする&lt;br /&gt;
&lt;br /&gt;
他にも色々な評価規準が考えられる. 以下で述べるドロネー三角形分割は, このうち最小角最大, 最大包含円最小という性質を満たし(最大外接円最小も), かつ&amp;lt;math&amp;gt;{\rm O}(n\log n)\, &amp;lt;/math&amp;gt;の高速の時間で求めることができる. 最大角を最小にする&amp;lt;math&amp;gt;{\rm O}(n^2\log n\, &amp;lt;/math&amp;gt;)時間の動的計画法を用いたアルゴリズム も知られている. 一方, 辺長和を最小にする[[重み最小三角形分割]] 問題の複雑さについてはまだよくわかっていないが, 2次元の場合は解法が与えられている. 点集合が凸&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;角形の頂点集合の場合, 辺長和最小問題は動的計画法によって &amp;lt;math&amp;gt;{\rm O}(n^3)\, &amp;lt;/math&amp;gt;時間で解ける. アスベクト比最適化なども含めた整数計画によるアプローチも はかられている.  &lt;br /&gt;
 &lt;br /&gt;
　三角形分割を応用上も役立つものにしているのは, ドロネー三角形分割あるいは[[ドロネー図]]である. これはボロノイ図の双対グラフとして定義される. ここでは, アルゴリズム的にも 有用な定義を与えておく.  2次元の点&amp;lt;math&amp;gt;p_i=(x_i,y_i) (i=1,\cdots,n)\, &amp;lt;/math&amp;gt;に対して, 新たに&amp;lt;math&amp;gt;z\, &amp;lt;/math&amp;gt;軸を考え,  3次元の点&amp;lt;math&amp;gt;p'_i=(x_i,y_i,x_i^2+y_i^2)\, &amp;lt;/math&amp;gt;を対応させる. このとき,  &amp;lt;math&amp;gt;p'_i (i=1,\cdots,n)\, &amp;lt;/math&amp;gt;の3次元の凸包の&amp;lt;math&amp;gt;z\, &amp;lt;/math&amp;gt;軸に関する下側境界 を&amp;lt;math&amp;gt;(x,y)\, &amp;lt;/math&amp;gt;平面に正射影したものを, &amp;lt;math&amp;gt;p_i\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(i=1,\ldots,n)\, &amp;lt;/math&amp;gt;のドロネー図 と定める.  &lt;br /&gt;
&lt;br /&gt;
　ドロネー三角形分割は, 各三角形の外接円が他の点を内部に含まない三角形分割 として特徴づけられる. ドロネー三角形分割でないと, 点集合の中で凸四角形 &amp;lt;math&amp;gt;p_1,p_2,p_3,p_4\, &amp;lt;/math&amp;gt;の三角形分割で, その三角形の外接円が他の点を含んでいる ものが存在する. このとき使っている対角線をもう1つの対角線に取り換えると, 局 所的に外接円に残りの1つの点は入らなくなる. 対角線を入れ換えることを対角変形といい, このように局所的にドロネー図に近付ける方向をドロネー対角変形と いう. 2次元では任意の三角形分割から&amp;lt;math&amp;gt;{\rm O}(n^2)\, &amp;lt;/math&amp;gt;回ドロネー対角変形を行なう ことで, 必ずドロネー三角形分割に変換できる.  &lt;br /&gt;
 &lt;br /&gt;
　ドロネー三角形分割は, 上述のような様々な最適化基準を満たすが, その多く はこのドロネー対角変形によりその基準が改善されるという論法で証明され る. その場合, 最小角最大を例にすると, 全ての角度を小さい順に並べたベク トルについて, ドロネー三角形分割は辞書式順序で最小なベクトルを与えることも示すことができる.  &lt;br /&gt;
&lt;br /&gt;
　三角形分割を2変数関数&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;の内挿関数&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;に適用した際,  曲面の三角形パッチによる近似の粗さの度合を &lt;br /&gt;
&amp;lt;math&amp;gt; \textstyle {\sum}_{S_i\in\tau}\int_{S_i} &lt;br /&gt;
\left[ &lt;br /&gt;
\left(\partial g/\partial x\right)^2+ &lt;br /&gt;
\left(\partial g/\partial y\right)^2 &lt;br /&gt;
\right]{\rm d}x{\rm d}y &lt;br /&gt;
 \, &amp;lt;/math&amp;gt;&lt;br /&gt;
で定義すると, ドロネー対角変形は粗さ度を改善し, 最適性が導かれる.  最大最小包含円最小性は, 放物線のポテンシャル関数の性質によっている.   &lt;br /&gt;
 &lt;br /&gt;
　高次元の三角形分割の構造は一般に難しい. 三角形(単体)の個数も一定ではなく,  一般化された高次元対角変形により任意の三角形分割間で変換できるかどうかもわかっ ていない. 3次元で, 非凸の多面体の内部を新しい点を導入することなく四面体に分割することができるかどうかという問題は, [[NP困難]]である.  &lt;br /&gt;
 &lt;br /&gt;
　高次元三角形分割の性質のよい有用な部分クラスとして, 正則三角形分割(regular triangulation)がある. これは, 点集合&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;に対して新たなもう1次元方向を考え, その方向に各点に高さを与え, その分だけ新しい次元方向に持ち上げた点集合の凸包の下側境界を元の空間に正射影することにより得られるものである. もし, その凸包の下側境界にすべてのもち上げられた点がのっており, さらにそれらが一般の位置にあれば, 正射影されたものはまさしくこれまでの定義の三角形分割である. 正則三角形分割では与えられた点で三角形分割の頂点として使われないものもある. 2次元でも正則でない三角形分割は存在する.  &lt;br /&gt;
 &lt;br /&gt;
　ドロネー三角形分割は正則であり, 正則三角形分割は高次元の場合も任意の2つの正則三角形分割は一般化対角変形で変換することができ, 2次元の三角形分割に通じるよい性質をもっている. さらに, 正則三角形分割は凸多面体と密接な関係をもった概念で, 数学・組合せ論で色々な展開が図られている. 詳細は [1] 参照.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] 今井桂子, 「三角形分割全体の離散構造」, 『離散構造とアルゴリズムVI』 (藤重悟編), 近代科学社, 1999.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%9C%E3%83%AD%E3%83%8E%E3%82%A4%E5%9B%B3%E3%80%8B&amp;diff=5015</id>
		<title>《ボロノイ図》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%9C%E3%83%AD%E3%83%8E%E3%82%A4%E5%9B%B3%E3%80%8B&amp;diff=5015"/>
		<updated>2007-07-16T12:47:49Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ぼろのいず (Voronoi diagram) 】'''&lt;br /&gt;
&lt;br /&gt;
　空間に生成元とよばれるいくつかの図形が配置されているとき, 空間の各点を最も近い生成元へ割り当てた構造を[[ボロノイ図]]  (Voronoi diagram) という. 一つの生成元に割り当てられた点全体がなす領域を, その生成元のボロノイ領域または勢力圏という. &lt;br /&gt;
&lt;br /&gt;
　空間 &amp;lt;math&amp;gt;E\, &amp;lt;/math&amp;gt; に配置された生成元を &amp;lt;math&amp;gt;g_1, g_2, \cdots , g_n\, &amp;lt;/math&amp;gt; とし, 生成元の集合を &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;とする. 任意の点 &amp;lt;math&amp;gt;{\rm P}\in E\, &amp;lt;/math&amp;gt; から &amp;lt;math&amp;gt;g_i\, &amp;lt;/math&amp;gt; までの距離を &amp;lt;math&amp;gt;d({\rm P}, g_i)\, &amp;lt;/math&amp;gt; で表す. &amp;lt;math&amp;gt;g_i\, &amp;lt;/math&amp;gt; のボロノイ領域 &amp;lt;math&amp;gt;R(G; g_i)\, &amp;lt;/math&amp;gt; は&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;R(G; g_i) = \{ {\rm P} \in E \mid d({\rm P}, g_i) &amp;lt; d({\rm P}, g_j), j \ne i\}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と表すことができる. &amp;lt;math&amp;gt;E\, &amp;lt;/math&amp;gt; は, &amp;lt;math&amp;gt;R(G; g_1), R(G; g_2), \cdots ,R(G; g_n)\, &amp;lt;/math&amp;gt; とそれらの境界に分割されるが, その分割構造がボロノイ図である. 空間 &amp;lt;math&amp;gt;E\, &amp;lt;/math&amp;gt; と, 生成元 &amp;lt;math&amp;gt;g_i \; (i=1, 2, \cdots , n)\, &amp;lt;/math&amp;gt; と距離 &amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt; の選び方によってさまざまなボロノイ図が定義できる. &lt;br /&gt;
&lt;br /&gt;
　点を生成元とし, ユークリッド距離を距離とするボロノイ図は[[点ボロノイ図]] (Voronoi diagram for points) とよばれる. 2次元では, ボロノイ領域の境界は, 両側の生成元を結ぶ線分の垂直二等分線の上にあり, 3つのボロノイ領域の境界が共有する点はまわりの 3 個の生成元を通る円の中心である. &lt;br /&gt;
&lt;br /&gt;
　点ボロノイ図に対して, ボロノイ領域が隣り合う生成元を線分で結ぶことによってできる図形は[[ドロネー図]] (Delaunay diagram) とよばれる. &lt;br /&gt;
&lt;br /&gt;
　互いに交差しない線分を生成元とし, ユークリッド距離を距離とするボロノイ図は[[線分ボロノイ図]] (Voronoi diagram for line segments) よばれる. 2 次元線分ボロノイ図の境界は線分と放物線の一部によって構成される. &lt;br /&gt;
&lt;br /&gt;
　中心が &amp;lt;math&amp;gt;{\rm P}_i\, &amp;lt;/math&amp;gt;, 半径が &amp;lt;math&amp;gt;r_i\, &amp;lt;/math&amp;gt; の円を &amp;lt;math&amp;gt;c_i\, &amp;lt;/math&amp;gt; とする. 点&amp;lt;math&amp;gt;{\rm P}\, &amp;lt;/math&amp;gt; に対して&amp;lt;math&amp;gt;|{\rm P}-{\rm P}_i|^2-{r_i}^2\, &amp;lt;/math&amp;gt;を, 点 &amp;lt;math&amp;gt;{\rm P}\, &amp;lt;/math&amp;gt; と円 &amp;lt;math&amp;gt;c_i\, &amp;lt;/math&amp;gt; のラゲール (Laguerre) 距離という. ただし&amp;lt;math&amp;gt;|{\rm P}-{\rm Q}|\, &amp;lt;/math&amp;gt; は 2 点 &amp;lt;math&amp;gt;{\rm P}, {\rm Q}\, &amp;lt;/math&amp;gt; のユークリッド距離を表す. 円 &amp;lt;math&amp;gt;c_1, c_2, \cdots , c_n\, &amp;lt;/math&amp;gt; を生成元とし, ラゲール距離を距離とするボロノイ図を[[ラゲールボロノイ図]] (Laguere Voronoi diagram) またはパワー図 (power diagram) とよぶ. ラゲールボロノイ図の境界は超平面の一部である. 特に2次元では直線の一部であり, 3次元では平面の一部である. &lt;br /&gt;
&lt;br /&gt;
　このほかにも &amp;lt;math&amp;gt;L_p\, &amp;lt;/math&amp;gt;-距離, ハウスドルフ距離などさまざまな距離を用いてボロノイ図が定義できる. このように一般の距離に基づいて定義されるボロノイ図を[[一般距離ボロノイ図]] (Voronoi diagram based on a general distance) とよぶ. &lt;br /&gt;
&lt;br /&gt;
　たとえば, 点を生成元とし, ユークリッド距離の逆数を距離とみなして定義されるボロノイ図は最遠点ボロノイ図 (farthest-point Voronoi diagram) とよばれる. このボロノイ図では, 他の生成元より自分の方が離れているという領域がそれぞれの生成元のボロノイ領域となる. 空でないボロノイ領域をもつのは, 生成元の凸包の境界上に現れる生成元のみである. &lt;br /&gt;
&lt;br /&gt;
　生成元がその位置や形を時間とともに変えると, 対応するボロノイ図も時間とともに変化する. このように時間の関数となるボロノイ図は[[動的ボロノイ図]] (dynamic Voronoi diagram) とよばれる. 動的ボロノイ図は, 飛行機やロボットが互いに接近し過ぎないよう監視するときなどに役立つ. &lt;br /&gt;
&lt;br /&gt;
　平面上に与えられた有限個の点の集合を &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; とする. &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; を含む最小の円を&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; の[[最小包含円]] (minimum enclosing circle) という. &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; の最小包含円は, &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; のちょうど 2 個の点を境界上にもつか, 3個以上の点を境界上にもつかのいずれかである. 前者の場合の最小包含円の中心は&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; を生成元集合とする最遠点ボロノイ図の辺上にあり, 後者の場合の最小包含円の中心はその最遠点ボロノイ図の頂点のいずれかと一致する. &lt;br /&gt;
&lt;br /&gt;
　平面上の一つの多角形を &amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt; とし, &amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt; 内に指定された有限個の点の集合を &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; とする. &amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt; 内に中心をもち, &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; の要素を一つも内部に含まない円を空円といい, その中で半径が最大のものを[[最大空円]] (maximum empty circle) という. 最大空円の中心は, &amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt; の頂点か, &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt; を生成元集合とするボロノイ図の頂点か, あるいはボロノイ図の辺と &amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt; の境界辺の交点のいずれかである. &lt;br /&gt;
&lt;br /&gt;
　ボロノイ図の効率のよい構成法はたくさん知られている. たとえば 2次元では, 点ボロノイ図, 線分ボロノイ図, ラゲールボロノイ図が&amp;lt;math&amp;gt;{\rm O}(n\log n)\, &amp;lt;/math&amp;gt; の計算量で構成できる. &amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt; 次元空間 (&amp;lt;math&amp;gt;d \geq 3\, &amp;lt;/math&amp;gt;) における点ボロノイ図とラゲールボロノイ図は, &amp;lt;math&amp;gt;{\rm O}(n^{\lfloor (d+1)/2\rfloor})\, &amp;lt;/math&amp;gt; の計算量で構成できる. ただし &amp;lt;math&amp;gt;\lfloor x \rfloor\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; 以下の最大の整数である. &lt;br /&gt;
&lt;br /&gt;
　ボロノイ図に関する詳しい解説には [1, 2, 3] がある. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] F. Aurenhammer, &amp;quot;Voronoi Diagrams -A Survey of a Fundamental Geometric Data Structure,&amp;quot; ''ACM Computing Surveys'', '''23''' (1991), 345-405.  &lt;br /&gt;
&lt;br /&gt;
[2] A. Okabe, B. Boots, K. Sugihara and S. N. Chiu, ''Spatial Tessellations -Concepts and Applications of Voronoi Diagrams, 2nd Edition'', John Wiley and Sons, Inc., Chichester, 2000. &lt;br /&gt;
&lt;br /&gt;
[3] S. Fortune, &amp;quot;Voronoi Diagrams and Delaunay Triangulations,&amp;quot; in ''Computing in Euclidean Geometry, 2nd Edition'', D. -Z. Du and F. Hwang, eds., World Scientific, Singapore, 225-265, 1995.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%A2%E3%83%AC%E3%83%B3%E3%82%B8%E3%83%A1%E3%83%B3%E3%83%88%E3%80%8B&amp;diff=5014</id>
		<title>《アレンジメント》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%A2%E3%83%AC%E3%83%B3%E3%82%B8%E3%83%A1%E3%83%B3%E3%83%88%E3%80%8B&amp;diff=5014"/>
		<updated>2007-07-16T12:44:42Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【あれんじめんと (arrangement) 】'''&lt;br /&gt;
&lt;br /&gt;
　超平面のアレンジメント(hyperplane arrangement) とは, 超平面による空間の 分割である. [[双対変換]]によって, 点集合は超平面集合に変換されるので, 点集合の問題にも対応する. また, 離散システムの観 点からは, 線形有向マトロイドの1つの表現である. 組合せ幾何とアルゴリズ ムからの詳しい解説が [1] にある.  &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元ユークリッド空間&amp;lt;math&amp;gt;{\mathbf R}^d\, &amp;lt;/math&amp;gt;内の&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個の超平面(&amp;lt;math&amp;gt;d=2\, \, &amp;lt;/math&amp;gt;の場合は直線) の集合&amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt;を考える. この&amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt;によって, &amp;lt;math&amp;gt;{\mathbf R}^d\, &amp;lt;/math&amp;gt;はいろいろな次元のフェイス (face) に分割される. 例えば, 2次元内の有限個の直線の集合は, 2次元, 1次元, 0次元のフェイス (面, 辺, 点) に平面を自然に分割する. これらのフェイスの集合とその接続関係, 各フェイスに対しそれを含む超平面の情報を合わせたものを&amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt;のアレンジメントといい, &amp;lt;math&amp;gt;{\mathcal A}(H)\, &amp;lt;/math&amp;gt;と書く. フェイスの次元を明記したいときは, &amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;次元&amp;lt;math&amp;gt;(0 \le k\le d)\, &amp;lt;/math&amp;gt;のフェイスを&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-フェイスと書く. &amp;lt;math&amp;gt;0\, &amp;lt;/math&amp;gt;-フェイスを頂点, &amp;lt;math&amp;gt;1\, &amp;lt;/math&amp;gt;-フェイスを辺, &amp;lt;math&amp;gt;(d-1)\, &amp;lt;/math&amp;gt;-フェイスを ファセット (facet), &amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;-フェイスをセル (cell) とも呼ぶ.  &lt;br /&gt;
&lt;br /&gt;
　フェイス&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;がフェイス&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;の部分フェイスであるとは, &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;の次元が&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;の次元 より1だけ小さく, &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;が&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;の境界に含まれていることである. &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;が&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;の部 分フェイスならば, &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;は (互いに) 接続しているといい, この関係 を接続関係という. フェイスの接続関係全体は束をなし, アレンジメントは, 各フェイスの座標など幾何情報と, このフェイスのなす束で表される.  &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;{\mathbf R}^d\, &amp;lt;/math&amp;gt;内の&amp;lt;math&amp;gt;n\ge d\, &amp;lt;/math&amp;gt;個の超平面のアレンジメントが単純 (simple) である とは, &amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt;に属する任意の&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;個の超平面は1点で交わり, どの&amp;lt;math&amp;gt;d+1\, &amp;lt;/math&amp;gt;個の超平面 も交点をもたないことである. アレンジメントの&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-フェイスの最大数&amp;lt;math&amp;gt;f_k(H)\, &amp;lt;/math&amp;gt;は, アレンジメントが単純であるとき達成され,  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;f_k(H)=\sum_{i=0}^k {d-i\choose k-i}{n\choose d-i}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で与えられる. 特に, &amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;-フェイス, すなわちセルの数は&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;を定数とみなすと &amp;lt;math&amp;gt;\textstyle f_d(H) ={\sum}_{i=0}^d {n\choose d-i}={\rm O}(n^d)\, &amp;lt;/math&amp;gt;となる.  &lt;br /&gt;
&lt;br /&gt;
　アレンジメントは逐次添加法で構成できる. 超平面を1つずつ付け加え, アレンジメントの接続関係を更新していく方法である. 2次元の場合で, 平面上の&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;本の直線からなる単純なアレンジメントを構成する方法を述べる.  &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;本の直線の集合を&amp;lt;math&amp;gt;L=\{ l_1,l_2,\cdots ,l_n\}\, &amp;lt;/math&amp;gt;とし, &amp;lt;math&amp;gt;(x,y)\, &amp;lt;/math&amp;gt;平面上にあるとする. &amp;lt;math&amp;gt;k-1\, &amp;lt;/math&amp;gt;本の直線&amp;lt;math&amp;gt;l_1,\cdots ,l_{k-1}\, &amp;lt;/math&amp;gt;からなるアレンジメントに&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;番目の 直線&amp;lt;math&amp;gt;l_k\, &amp;lt;/math&amp;gt;を加えてアレンジメントを更新する. 各頂点には, この頂点に接続している4つの辺を反時計回りの 順で貯えておく. 各辺には, その辺を含む直線の式と辺の両端点の頂点を覚えておく. &amp;lt;math&amp;gt;x=-\infty\, &amp;lt;/math&amp;gt;で&amp;lt;math&amp;gt;l_k\, &amp;lt;/math&amp;gt;のすぐ上にある直線を左から辿り, この辺の下に接続している面の境界を時計回りに回って行く. &amp;lt;math&amp;gt;l_k\, &amp;lt;/math&amp;gt;と交わった時は, その交点から始めて, 今度は隣の面の境界 を時計回りに辿る. これを&amp;lt;math&amp;gt;l_k\, &amp;lt;/math&amp;gt;がすでにアレンジメントに存在していた &amp;lt;math&amp;gt;k-1\, &amp;lt;/math&amp;gt;本の直線と交わるまで行なう. この操作により, &amp;lt;math&amp;gt;l_k\, &amp;lt;/math&amp;gt;上に新たに現れる頂点もすべて列挙することができ, そこでアレンジメントを更新していくことができる. その手間は, 直線&amp;lt;math&amp;gt;l_k\, &amp;lt;/math&amp;gt;と交わる面の境界上で 辿る辺の数に比例する. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元の&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個の超平面のアレンジメントにおいて, 新たに1つ超平面&amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt;を加え, &amp;lt;math&amp;gt;h\, &amp;lt;/math&amp;gt;と交わる各セルのフェイスの集合を[[ゾーン]]と定義すると, 次のゾーン定理が成り立つ.  &lt;br /&gt;
&lt;br /&gt;
[[ゾーン定理]]. &amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元空間内の&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個の超平面から成るアレンジメントにおいて, 1つの超平面のゾーンのフェイスの総数は&amp;lt;math&amp;gt;{\rm O}(n^{d-1})\, &amp;lt;/math&amp;gt;である.  &lt;br /&gt;
&lt;br /&gt;
　このゾーン定理より, アレンジメントを逐次添加法で構成したときの計算量を &amp;lt;math&amp;gt;{\rm O}(n^d)\, &amp;lt;/math&amp;gt;でおさえることができる.  &lt;br /&gt;
&lt;br /&gt;
　ゾーン定理の離散幾何への応用を1つ上げておく.  &amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元の&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;超平面のアレンジメントのセルの集合を &amp;lt;math&amp;gt;{\mathcal C}\, &amp;lt;/math&amp;gt;, 各セル&amp;lt;math&amp;gt;c\in {\mathcal C}\, &amp;lt;/math&amp;gt;のファセットの数を&amp;lt;math&amp;gt;d(c)\, &amp;lt;/math&amp;gt;としたとき,  &amp;lt;math&amp;gt;\textstyle {\sum}_{c\in{\mathcal C}}d(c)^2={\rm O}(n^d)\, &amp;lt;/math&amp;gt;が成り立つ.  &amp;lt;math&amp;gt;\textstyle {\sum}_{c\in{\mathcal C}}d(c)={\rm O}(n^d)\, &amp;lt;/math&amp;gt;  であるから, 各セルのファセットの数はそんなに分散が大きくないことが わかる. 2次元の場合には, このような関係から複数のセルの辺の数を評価することができる.  &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元超平面アレンジメントにおいて, &amp;lt;math&amp;gt;x_d\, &amp;lt;/math&amp;gt;軸に平行な直線で貫いたときに下から&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;番目となる交点をもつフェイス全体の集合を&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-レベル, または単に[[レベル (計算幾何における)|レベル]] という. 2次元の場合, 高々&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;までのレベルのサイズは&amp;lt;math&amp;gt;{\rm O}(kn)\, &amp;lt;/math&amp;gt;であり,  &amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-レベルのサイズは&amp;lt;math&amp;gt;{\rm O}(\sqrt{k}n)\, &amp;lt;/math&amp;gt;となる. 双対性より,  これは平面の&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;点を直線で等分割する方法の数が&amp;lt;math&amp;gt;{\rm O}(n^{1.5})\, &amp;lt;/math&amp;gt;であることも 意味する. &amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-レベルを &amp;lt;math&amp;gt;{\rm O}(\sqrt{k}n(\log n)^2)\, &amp;lt;/math&amp;gt;時間で求める 平面走査法アルゴリズムが知られている.  &lt;br /&gt;
&lt;br /&gt;
　3次元の平面のアレンジメントでもレベルのサイズは&amp;lt;math&amp;gt;{\rm o}(n^3)\, &amp;lt;/math&amp;gt;である. 4次元以上の 場合, 全体より小さいオーダであるかどうかはわかっていない. また, 高次元の場合 は, 0, 1次元フェイスの頂点, 辺で構成される[[スケルトン]]をたどるアルゴリズムも知られており, 特に3次元ではアレンジメント全体を 求めるよりも効率よく計算できる. レベルや1つのセルのスケルトンも 有用で, 点集合の問題を双対変 換して解いている場合, スケルトンのみで十分な場合もある.  &lt;br /&gt;
&lt;br /&gt;
　曲線・曲面のアレンジメントも有用であり, このアレンジメントの1つのセルやゾーンの 組合せ複雑度の解析は, Davenport-Schinzel列の理論としてまとめられている. 定数次数の代数曲線のアレンジメントでは, セルのフェイス数は 一般次元で全体のオーダよりほぼ1つ小さな次数の数でおさえられる.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] H. Edelsbrunner, ''Algorithms in Combinatorial Geometry,'' Springer-Verlag, 1987. 邦訳 (今井浩, 今井桂子訳), 『組合せ幾何学のアルゴリズム』, 共立出版, 1995.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%87%B8%E5%A4%9A%E9%9D%A2%E4%BD%93%E3%80%8B&amp;diff=5013</id>
		<title>《凸多面体》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%87%B8%E5%A4%9A%E9%9D%A2%E4%BD%93%E3%80%8B&amp;diff=5013"/>
		<updated>2007-07-16T12:37:50Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【とつためんたい (convex polyhedron) 】'''&lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;次元実ベクトル&amp;lt;math&amp;gt;a=(a_1,\cdots,a_n)^{\rm T} \in {\mathbf R}^n\, &amp;lt;/math&amp;gt;と実数 &amp;lt;math&amp;gt;a_0{\in}{\mathbf R}\, &amp;lt;/math&amp;gt; により定まる1次不等式 (線形不等式) &amp;lt;math&amp;gt;(a_1 x_1 + \cdots + a_n x_n \leq a_0)\, &amp;lt;/math&amp;gt;を満たす点&amp;lt;math&amp;gt;x = (x_1,\cdots,x_n)^{\rm T}\, &amp;lt;/math&amp;gt;全体からなる集合を閉半空間(closed halfspace)とよぶ. 有限個の閉半空間の共通部分を[[凸多面体]] (convex polyhedron) とよぶ. すなわち, &amp;lt;math&amp;gt;{\mathbf R}^n\, &amp;lt;/math&amp;gt;内の凸多面体は, 適当な&amp;lt;math&amp;gt;m{\times}n\, &amp;lt;/math&amp;gt;実行列&amp;lt;math&amp;gt;A\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;m\, &amp;lt;/math&amp;gt;次元ベクトル&amp;lt;math&amp;gt;b\, &amp;lt;/math&amp;gt;を用いて&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;P = \{ x \in {\mathbf R}^n \mid Ax \leq b \}\, &amp;lt;/math&amp;gt;　　　　&amp;lt;math&amp;gt;(1)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と表現できる. 凸多面体&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;が, ある正の実数&amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt;に対して&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;x \in P \;\Longrightarrow\; |x_i| \leq M \quad(i=1,\cdots,n)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
をみたすとき有界である(bounded)とよばれ, 英語では convex polytopeと区別してよばれることが多い. 凸多面体の例としては, [[線形計画]]問題での[[実行可能多面体]], [[TSP多面体]], [[基多面体]], [[ポリマトロイド]]などがある. &lt;br /&gt;
&lt;br /&gt;
　凸多面体には不等式表現以外にもう一つ有益な表現方法がある. &amp;lt;math&amp;gt;v^1,\cdots,v^\ell \in {\mathbf R}^n\, &amp;lt;/math&amp;gt;に対して, 適当な&amp;lt;math&amp;gt;\alpha_1,\cdots,\alpha_\ell \in {\mathbf R}\, &amp;lt;/math&amp;gt;によって&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;v = \alpha_1v^1 + \cdots + \alpha_\ell v^\ell\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と表現されるベクトル &amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt; を&amp;lt;math&amp;gt;v^1,\cdots,v^\ell\, &amp;lt;/math&amp;gt;の一次結合(線形結合)  (linear combination) とよぶ. 係数&amp;lt;math&amp;gt;\alpha_1,\cdots,\alpha_\ell\, &amp;lt;/math&amp;gt;が非負条件&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\alpha_1 \geq 0, \cdots , \alpha_\ell \geq 0\, &amp;lt;/math&amp;gt;　　　　&amp;lt;math&amp;gt;(2)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
をみたす場合には &amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt; は非負結合(nonnegative combination), 和が1という条件&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\alpha_1 + \cdots + \alpha_\ell = 1\, &amp;lt;/math&amp;gt;　　　　&amp;lt;math&amp;gt;(3)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
をみたす場合には &amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt; はアフィン結合 (affine combination), さらに (2) と (3) の両方をみたすとき &amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt; は&amp;lt;math&amp;gt;v^1,\cdots,v^\ell\, &amp;lt;/math&amp;gt;の凸結合 (convex combination) とよばれる. 有限個の&amp;lt;math&amp;gt;v^1,\cdots,v^\ell \in {\mathbf R}^n\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;r^1,\cdots,r^d \in {\mathbf R}^n\, &amp;lt;/math&amp;gt;に対して, &amp;lt;math&amp;gt;v^1,\cdots,v^\ell\, &amp;lt;/math&amp;gt;の凸結合と&amp;lt;math&amp;gt;r^1,\cdots,r^d\, &amp;lt;/math&amp;gt;の非負結合の和として表される点全体, すなわち&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt; \left\{ x = \sum_{i=1}^\ell \alpha_iv^i + \sum_{j=1}^d \beta_jd^j&lt;br /&gt;
     \;\; \begin{array}{|l}&lt;br /&gt;
      \sum_{i=1}^\ell \alpha_i = 1 \\&lt;br /&gt;
      \alpha_i \geq 0 \;(i=1,\cdots,\ell) \\&lt;br /&gt;
      \beta_j \geq 0 \;(j=1,\cdots,d)&lt;br /&gt;
     \end{array} \right\}&lt;br /&gt;
\, &amp;lt;/math&amp;gt;　　　　&amp;lt;math&amp;gt;(4)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と定義される集合は凸多面体となり, 逆に (1) で定義される凸多面体については (4) をみたす有限個の&amp;lt;math&amp;gt;v^1,\cdots,v^\ell \in {\mathbf R}^n\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;r^1,\cdots,r^d \in {\mathbf R}^n\, &amp;lt;/math&amp;gt;が存在することが知られている. 特に, 有界な凸多面体に対しては有限個の点&amp;lt;math&amp;gt;v^1,\cdots,v^\ell \in {\mathbf R}^n\, &amp;lt;/math&amp;gt;の凸結合全体, すなわち, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;P = \left\{ x = \sum_{i=1}^\ell \alpha_iv^i&lt;br /&gt;
     \;\; \right| \left. &lt;br /&gt;
      \sum_{i=1}^\ell \alpha_i = 1,\;\; \alpha_i \geq 0 \;(i=1,\cdots,\ell)&lt;br /&gt;
     \right\}\, &amp;lt;/math&amp;gt;　　　　&amp;lt;math&amp;gt;(5)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と表現でき, (5)で定義される集合は, 点集合&amp;lt;math&amp;gt;V=\{v^1,\cdots,v^\ell\}\, &amp;lt;/math&amp;gt;を含む (集合の包含関係の意味で) 最小な[[凸集合]] (convex set)として定義される&amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;の[[凸包]] (convex hull) と一致する. 例えば, &amp;lt;math&amp;gt;{(0,0,0),(1,0,0),(0,1,0),(0,0,1)} \subset {\mathbf R}^3\, &amp;lt;/math&amp;gt;の凸包である有界な凸多面体は&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;x_1+x_2+x_3 \leq 1,\quad&lt;br /&gt;
   x_1 \geq 0, \quad&lt;br /&gt;
   x_2 \geq 0, \quad&lt;br /&gt;
   x_3 \geq 0\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
という４本の不等式で表現できる三角錐である. &lt;br /&gt;
&lt;br /&gt;
　点集合&amp;lt;math&amp;gt;V=\{v^1,\cdots,v^\ell\} \subseteq {\mathbf R}^n\, &amp;lt;/math&amp;gt;について, どの要素も他の要素たちのアフィン結合で表現できないとき, すなわち, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\alpha_1v^1 + \cdots + \alpha_\ell v^\ell = 0 \;\Longrightarrow\;&lt;br /&gt;
\alpha_1 = \cdots = \alpha_\ell = 0\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
をみたすとき, &amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt; はアフィン独立(affinely independent)であるという. &amp;lt;math&amp;gt;{\mathbf R}^n\, &amp;lt;/math&amp;gt;からは高々 &amp;lt;math&amp;gt;n{+}1\, &amp;lt;/math&amp;gt;個のアフィン独立な点しか取れない. 集合&amp;lt;math&amp;gt;S \subseteq {\mathbf R}^n\, &amp;lt;/math&amp;gt;に含まれるアフィン独立な点集合で要素数最大のものを&amp;lt;math&amp;gt;V=\{v^1,\cdots,v^\ell\}\, &amp;lt;/math&amp;gt;としたとき, &amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の次元は&amp;lt;math&amp;gt;\ell{-}1\, &amp;lt;/math&amp;gt;と定義する(次元は&amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;の選び方に依存しないことを付記しておく). 先の例では,&amp;lt;math&amp;gt; {(0,0,0),(1,0,0),(0,1,0),(0,0,1)}\, &amp;lt;/math&amp;gt;はアフィン独立であり, この凸包である三角錐の次元は&amp;lt;math&amp;gt;3\, &amp;lt;/math&amp;gt;となる. 凸多面体&amp;lt;math&amp;gt;P \subseteq {\mathbf R}^n\, &amp;lt;/math&amp;gt;の次元が &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; であるとき全次元的(full dimensional)という. &lt;br /&gt;
&lt;br /&gt;
　凸多面体&amp;lt;math&amp;gt;P \subseteq {\mathbf R}^n\, &amp;lt;/math&amp;gt;に対して, 超平面(hyperplane) &amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt;, すなわち, 非ゼロベクトル&amp;lt;math&amp;gt;(a_1,\cdots,a_n)^{\rm T} \in {\mathbf R}^n\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;a_0 \in {\mathbf R}\, &amp;lt;/math&amp;gt;を用いて&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;H = \{x \mid a_1x_1 + \cdots + a_nx_n = a_0 \}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と表現できる集合が&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;P \cap H \neq \emptyset \, &amp;lt;/math&amp;gt;　かつ　&amp;lt;math&amp;gt;P \subseteq \{x \mid a_1x_1 + \cdots + a_nx_n \leq a_0 \}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
をみたすとき, &amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;の支持超平面 (supporting hyperplane) とよばれる. 支持超平面と凸多面体の共通部分も凸多面体である. この共通部分を凸多面体の面 (face) とよび, その次元が&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;であるとき&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;次元面(&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-face, &amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt; dimensional face)とよぶ. 特に多面体より次元が&amp;lt;math&amp;gt;1\, &amp;lt;/math&amp;gt;小さい面をファセット(facet), &amp;lt;math&amp;gt;1\, &amp;lt;/math&amp;gt;次元面を辺 (edge), &amp;lt;math&amp;gt;0\, &amp;lt;/math&amp;gt;次元面を頂点 (vertex) とよぶ. 先の三角錐を例にすると, 不等式表現の４本に対応する面は&amp;lt;math&amp;gt;2\, &amp;lt;/math&amp;gt;次元面 (ファセット) であり, 他に6個の&amp;lt;math&amp;gt;1\, &amp;lt;/math&amp;gt;次元面 (辺) と4個の&amp;lt;math&amp;gt;0\, &amp;lt;/math&amp;gt;次元面 (頂点) を持つ. 一般に有界な凸多面体は頂点全体の凸包と一致し, 全次元的な凸多面体はファセットに対応した不等式で一意的に表現できる (不等式の両辺を正数倍しても同じものとみなす). 凸多面体自身と空集合を便宜上面とすると, 面全体は包含関係に関して束となり, 凸多面体の面束 (face lattice) とよばれる. 同型な面束を持つ凸多面体を互いに組合せ的に同型 (combinatorially equivalent) とよぶ. 束の順序関係を逆にしても束となるが, 任意の凸多面体の面束の順序関係を逆にした束と同型な面束を持つ凸多面体が常に存在し, これは, 元の凸多面体の双対多面体 (dual polytope) とよばれる. &lt;br /&gt;
&lt;br /&gt;
　凸多面体は[[計算幾何学]]の重要な研究対象であるばかりでなく, [[組合せ最適化問題]]の実行可能解全体を表現あるいは近似的に表現するための有益な道具である. [[多面体理論]]の項目も参照されたい. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] A. Brondsted, ''An Introduction to Convex Polytopes'', Springer-Verlag, 1980.&lt;br /&gt;
&lt;br /&gt;
[2] G. L. Nemhauser and L. A. Wolsey, ''Integer and Combinatorial Optimization'', Wiley-Interscience, 1988.&lt;br /&gt;
&lt;br /&gt;
[3] G. M. Ziegler, ''Lectures on Polytopes'', Springer, 1995.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B9%E3%82%B1%E3%82%B8%E3%83%A5%E3%83%BC%E3%83%AA%E3%83%B3%E3%82%B0%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=5012</id>
		<title>《スケジューリング問題》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B9%E3%82%B1%E3%82%B8%E3%83%A5%E3%83%BC%E3%83%AA%E3%83%B3%E3%82%B0%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=5012"/>
		<updated>2007-07-16T12:17:20Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【すけじゅーりんぐもんだい (scheduling problem) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[スケジューリング問題]]は, 多くの仕事あるいは活動 (スケジューリング用語ではジョブ (job) という) を種々の制約のもとで実行しなければならないとき,  実行可能なスケジュールや, 最適なスケジュールを見出す問題である. 従って, 効率的な運用が求められるあらゆる組織においてスケジューリング問題が存在するが, ここでは基本問題の1つである[[ジョブショップ問題]] (jobshop problem) を中心に説明する. &lt;br /&gt;
&lt;br /&gt;
　多数のジョブが1台以上の機械の一部または全部によって予め指定された順序 (以下では工程順序という) に従って順次処理される. ただし, どのジョブも一時に高々1機械でしか処理されないし, どの機械も一時に高々1ジョブしか処理できない. また, 特に断りのない限り, 作業 (各機械におけるジョブの処理) は, いったん開始されると, 終了まで中断されることはない. このようなシステムはジョブショップと言われ, 所与の評価基準(目的関数)を最適にするよう, 各機械でのジョブ処理順序を見出す, すなわち, 順序づけの問題はジョブショップ問題と言われる. &lt;br /&gt;
&lt;br /&gt;
　ジョブショップ問題は生産スケジューリングの典型的なモデルであるが [8], コンピュータシステムのスケジューリングモデルとしてもしばしば取り上げられる [3]. また, 機械をボトルネックとなっている資源の代名詞と考えれば, ジョブショップ問題の適用範囲は極めて広い. &lt;br /&gt;
&lt;br /&gt;
　ジョブショップ問題の仮定を一部変えることによって種々のモデルが考えられる. 代表的な例として, [[1機械問題]] (one-machine problem), [[並列機械問題]] (parallel-machine problem), [[フローショップ問題]] (flow shop problem), [[オープンショップ問題]] (open shop problem) などがある. &lt;br /&gt;
&lt;br /&gt;
　1機械問題では, 全てのジョブがちょうど1台の機械で処理される場合に, ジョブの処理順序を決定する問題である. &lt;br /&gt;
&lt;br /&gt;
　並列機械問題は, 2台以上の機械が存在し, 各ジョブはそれらのうちのいずれか1台で一度だけ処理されるとき, 各ジョブに対する機械の割当てと, 各機械に割当てられたジョブの処理順序を決定する問題である. 特に, 全機械が同一の場合を[[同一並列機械問題]] (identical parallel-machine problem), 機械によって処理速度が異なる場合を[[一様並列機械問題]] (uniform parallel-machine problem), ジョブと機械の組合せによって, 処理時間が異なる場合を[[無関連並列機械問題]] (unrelated parallel-machine problem) と言う. &lt;br /&gt;
&lt;br /&gt;
　ジョブショップ問題において, 工程順序がどのジョブについても同じ場合を特にフローショップ問題という. また, ジョブの一部または全ての工程順序が任意であって, これも最適化の対象となる場合をオープンショップ問題という. &lt;br /&gt;
&lt;br /&gt;
　以上のジョブショップモデルでは, 機械間のジョブ搬送や仕掛け用バッファの有限性, ジョブ間の段取時間などが考慮されていず, 必ずしも現実を反映していない. その意味ではしばしば古典的モデル [4] と言われる. これをさらに拡張したモデルとして[[FMSスケジューリング]] (flexible manufacturing system scheduling) [10], [[ロボティックセルスケジューリング]] (robotic cell scheduling) [5], [[資源制約付きスケジューリング]] (scheduling under resource constraints) [1], [[グループスケジューリング]] (group scheduling) [6] などがしばしば検討されている. &lt;br /&gt;
&lt;br /&gt;
　FMSは, 1台で多種加工が可能なマシニングセンタやAGV (automated guided vehicle), ロボット, AS/RS(automated storage/retrieval system)などの自動物流機器で構成されている. 特に, 1台のロボットと少数のマシニングセンタからなる小規模のFMSはロボティックセル (またはFMC) と言われる. これらのシステムでは加工スケジューリングのみならず, 搬送などの物流のスケジューリングがシステム全体の効率化に大きな影響を及ぼす. &lt;br /&gt;
&lt;br /&gt;
　ジョブショップにおいて機械以外にボトルネックとなる資源(工作機械の治工具, 計算機のメモリなど) が存在し, それらのスケジューリングも考慮されなければならない場合は資源制約付きスケジューリング問題と言われる. &lt;br /&gt;
&lt;br /&gt;
　ジョブ間に段取時間が存在するとき, GT (group technology) に基づいて, 段取時間が比較的小さいジョブをグループにまとめ, グループ間で行う順序づけをグループスケジューリングと言う. &lt;br /&gt;
&lt;br /&gt;
　ジョブショップ問題 (及びその拡張問題) では, ジョブまたは作業に種々の制約が課せられることが多い. 典型的な制約条件として処理順序に関するジョブ間の先行制約, 最早開始時刻または準備時間の制約などがある. &lt;br /&gt;
&lt;br /&gt;
　最適化 (ここでは最小化) すべき目的関数の代表例として, 全ジョブの終了時間を表す最大完了時間 (メークスパン (makespan) と言うことがある), ジョブがシステムに滞留した時間の総和を表す滞留時間和, 納期からの遅れの指標となる最大納期遅れや遅れ和が挙げられる. &lt;br /&gt;
&lt;br /&gt;
　以上に述べてきたように, ジョブショップ問題は, ショップ (工程) の構成, ジョブ処理環境及び目的関数によって分類されるので, これらを (待ち行列におけるケンドール (Kendall) 風の) [[3つ組み記法 (スケジューリング問題の)|3つ組み記法]] (&amp;lt;math&amp;gt;\alpha |\beta |\gamma\, &amp;lt;/math&amp;gt;) によって記述することができる [2]. すなわち, &amp;lt;math&amp;gt;\alpha\, &amp;lt;/math&amp;gt;は工程, &amp;lt;math&amp;gt;\beta\, &amp;lt;/math&amp;gt;はジョブ処理環境, &amp;lt;math&amp;gt;\gamma\, &amp;lt;/math&amp;gt;は目的関数である. &lt;br /&gt;
&lt;br /&gt;
　表1は&amp;lt;math&amp;gt;\alpha |\beta |\gamma\, &amp;lt;/math&amp;gt;による問題表規の例である. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
表 1: 3つ組み記法によるジョブショップ問題の分類&lt;br /&gt;
&amp;lt;table width=&amp;quot;620&amp;quot; border=&amp;quot;0&amp;quot; cellspacing=&amp;quot;2&amp;quot; cellpadding=&amp;quot;0&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;top&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;table width=&amp;quot;300&amp;quot; border=&amp;quot;1&amp;quot; cellspacing=&amp;quot;2&amp;quot; cellpadding=&amp;quot;0&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;項目&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;表示&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;意味&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;7&amp;quot; align=&amp;quot;center&amp;quot; valign=&amp;quot;top&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\alpha\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;1\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;1機械&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;同一並列機械&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;Q\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;一様並列機械&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;R\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;無関連並列機械&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;フローショップ&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;O\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;オープンショップ&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;J\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;ジョブショップ&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;top&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;table width=&amp;quot;300&amp;quot; border=&amp;quot;1&amp;quot; cellspacing=&amp;quot;2&amp;quot; cellpadding=&amp;quot;0&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;項目&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;表示&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;意味&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;2&amp;quot; align=&amp;quot;center&amp;quot; valign=&amp;quot;top&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\beta\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;prec\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;先行制約&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;r_j\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;準備時間制約&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;4&amp;quot; valign=&amp;quot;top&amp;quot; align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\gamma\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;C_{max}\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;最大完了時間&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\Sigma c_j\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;滞留時間和&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;T_{max}\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;最大納期遅れ&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\Sigma T_j\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;left&amp;quot;&amp;gt;納期遅れ和&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&amp;lt;p&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　ジョブショップ問題の理論的研究の起源は1954年のジョンソン (S.H.Johnson) の定理 [7] にまで遡る. &lt;br /&gt;
&lt;br /&gt;
　'''ジョンソンの定理''': 2機械フローショップにおいて&amp;lt;math&amp;gt;A_j\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;B_j\, &amp;lt;/math&amp;gt;をそれぞれ第1機械及び第2機械におけるジョブ&amp;lt;math&amp;gt;j(=1,2,\cdots,n)\, &amp;lt;/math&amp;gt;の処理時間とする. このとき, 最大完了時間最小化問題(&amp;lt;math&amp;gt;F2 || C_{max}\, &amp;lt;/math&amp;gt;)の最適順序はつぎの[[順序付け規則]]で与えられる. すなわち, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\max (A_j,B_{j+1}) &amp;lt; \max (A_{j+1},B_j)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　ならば, ジョブ&amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt;をジョブ(&amp;lt;math&amp;gt;j+1\, &amp;lt;/math&amp;gt;)より先に処理する. 等号の場合は, どちらが先でもよい. &lt;br /&gt;
&lt;br /&gt;
　これ以後この様な最適な順序づけ規則の研究が進められたが, 1970年代初期のNP完全理論の誕生と共に, 多くのスケジューリング問題が[[NP困難]]になることが証明された [2]. 例えば, &amp;lt;math&amp;gt;1 || \Sigma c_j\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;1 || T_{max}\, \, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;P || \Sigma c_j, J2 || c_{max}\, &amp;lt;/math&amp;gt; (J2は2機械ジョブショップを表す)などは最適順序づけ規則が存在するが, &amp;lt;math&amp;gt;1 | r_j | T_{max}\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;1 | prec | \Sigma c_j\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;p1 || c_{max}, F2 || \Sigma c_j\, &amp;lt;/math&amp;gt;はNP困難となる. &lt;br /&gt;
&lt;br /&gt;
　しかし, NP困難問題だからといって, 必ずしも手に負えないという訳ではない. 工夫された[[分枝限定法]]などを用いることによって (希な最悪例を除いて) かなり大きな問題例まで解くことが可能である (例えば, [9] 参照). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] J. Blazewicz, W. Cellary, K. Slowinski, J. Weglarz, ''Scheduling under Resource Constraints : Deterministic Model,'' J. C. Balzer, Basel, 1986.&lt;br /&gt;
&lt;br /&gt;
[2] P. Brucker, ''Scheduling Algorithms,'' Springer, 1995.&lt;br /&gt;
&lt;br /&gt;
[3] E. G. Coffman, eds., ''Computer and Job-shop Scheduling Theory,'' John Wiley and Sons, 1976.&lt;br /&gt;
&lt;br /&gt;
[4] R. W. Conway, W. L. Maxwell, L. W. Miller, ''Theory of Scheduling,'' Addison-Weseley Reading, 1967. 関根智明監訳, 『スケジューリングの理論』, 日刊工業新聞社, 1971.&lt;br /&gt;
&lt;br /&gt;
[5] N. G. Hell, H. Kamoun, C. Shriskandarajah, &amp;quot;Scheduling in Robotic Cells : Classification, Two and Three Machine Cells,&amp;quot; ''Operations Research,'' '''45''' (1997), 421-439.&lt;br /&gt;
&lt;br /&gt;
[6] 人見勝人, 中島勝, 吉田照彦, 小島敏彦,『GTによる生産管理システム』, 日刊工業新聞社, 1981. &lt;br /&gt;
&lt;br /&gt;
[7] S. H. Johnson, &amp;quot;Optimal Two and Three Stage Production Schedules with Setup Times Included,&amp;quot; ''Naual Research Logistics Quartry,'' '''1''' (1954), 61-68.&lt;br /&gt;
&lt;br /&gt;
[8] 木瀬洋,「生産スケジューリングの現状と動向」,『システム/制御/情報』, '''41''' (1997), 92-99.&lt;br /&gt;
&lt;br /&gt;
[9] 木瀬洋,「分枝限定法で大規模問題を解く」,『オペレーションズ・リサーチ』, 39 (1994), 601--606.&lt;br /&gt;
&lt;br /&gt;
[10] N. Raman, K. Stecke and E. Rachamadugu, &amp;quot;Forcused Review of FMS Scheduling Research,&amp;quot; 『計測と制御』, '''33''' (1994), 680-689.&lt;br /&gt;
&lt;br /&gt;
[11] 田中克己, 石井信明,『スケジューリングとシミュレーション』, 計測自動制御学会 (1995).&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B9%E3%82%B1%E3%82%B8%E3%83%A5%E3%83%BC%E3%83%AA%E3%83%B3%E3%82%B0%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5011</id>
		<title>《スケジューリング理論》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%82%B9%E3%82%B1%E3%82%B8%E3%83%A5%E3%83%BC%E3%83%AA%E3%83%B3%E3%82%B0%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=5011"/>
		<updated>2007-07-16T12:08:54Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【すけじゅーりんぐりろん (scheduling theory) 】'''&lt;br /&gt;
 &lt;br /&gt;
　スケジュールとは, 時間軸上で設備(ないし資源)に1つ以上の活動を割り当てたものをいう. スケジューリングとは, スケジュールを決めることであって, [[スケジューリング理論]] (scheduling theory) は, 広義にはスケジューリング問題のモデル化, 分析, 解法の開発・分析, スケジューリングシステム, 実際問題への応用などの分野にまたがる理論である. 1つの設備には同時に1つの活動だけを割り当てることができ, 1つの活動は同時に1つの設備にのみ割り当てることができるとするとき, 1つ以上の設備から成るシステムを''ジョブショップ'' (job shop) という. 各設備に割り当てる活動を作業 (operation) と呼び, いくつかの作業の集合をジョブ (job) と呼ぶ. ジョブショップの設備は一般に機械 (machine) と呼ばれ, 機械はその種類によって工程 (process) に分けられる. ジョブショップは機能別配置 [1] の機械加工工場のモデルと考えられるが, 機械を様々な生産資源に置き換えることによって広い応用分野に対応する. 各工程が1つの機械から成るのが基本的なジョブショップである. あるジョブを構成する作業の間の指定された順序を[[工程順序]] (routing) ないし技術的順序 (technological order) という. 各機械において処理する作業の順序をその機械におけるジョブの (あるいは同じことであるが作業の) 処理順序 (sequence) と呼ぶ. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;table&amp;gt;&amp;lt;tr&amp;gt;&amp;lt;td align=center&amp;gt;[[画像:0037-c-a-08+1.png|center|図１：ガントチャート]]&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=center&amp;gt;&amp;lt;br&amp;gt;図１：ガントチャート&amp;lt;/td&amp;gt;&amp;lt;/table&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　ジョブショップにおいて1つのスケジュールが与えられるとき, 横軸に時間をとり縦軸に機械をとって, 各機械ごとに作業を処理する期間を帯状に表示したものを機械向き (machine oriented) ガントチャート (Gantt chart), 縦軸にはジョブを取りその作業の処理期間を帯状に表示したものをジョブ向き (job oriented) [[ガントチャート]]という (図1). スケジュールは本来, 各作業の着手と完了の時刻の集合である. しかし, 各機械が同時には1つの作業しか処理できないことから, 着手順に作業を整列すれば1つの順列を得る. これは処理順序に対応する. 従って, 処理順序が決まれば各作業の着手時刻が自動的に決定されるような状況では, スケジュールと処理順序は実質的に同じ意味である. このためスケジューリング理論は狭義には順序づけ理論(sequencing theory)の意味で使われる. 以下, この狭義のスケジューリング理論の基礎概念を説明する. 関連項目としてスケジューリング問題, スケジューリング・アルゴリズムを参照されたい. &lt;br /&gt;
&lt;br /&gt;
　[[順序付け]] (sequencing) の研究においては処理順序の評価基準を関数表現したものを[[順序付け関数]] (sequencing function) という。理論的には評価基準として各作業の完了時刻に関して非減少な尺度がよく利用される. このような尺度を[[正則尺度]] (regular measure) と呼ぶ。実用的には正則でない尺度も多用される。正則尺度の下では処理順序ごとに, 各作業を工程順序に違反しないでできるだけ早期に着手するただ1つのスケジュールが検討対象となる. すべてのスケジュールに対して、任意の作業をそれより遅くなることなく完了するスケジュールが少なくとも1つは含まれているようなスケジュールの集合を, スケジュールの[[優越集合 (スケジュールの)|優越集合]] (dominant set) と呼ぶ. 正則尺度の下で優越集合はすべての処理順序から上記のように生成されるスケジュールの集合であり, その中の最良のスケジュール(処理順序)が最適である. 次のような[[活性スケジュール]] (アクティブスケジュール) 全体の集合が優越集合であることは知られているが, 最小の優越集合はまだ知られていない. &lt;br /&gt;
&lt;br /&gt;
　1つの処理順序が与えられるとする. この時, この処理順序に従いできるだけ早期に各作業を処理開始するスケジュールを準活性スケジュールと呼ぶ. 準活性スケジュールにおいて, 他のどの作業の処理開始時刻にも影響を与えないで他の作業を飛び越してより早く着手できる作業を順次前に移動することによって, もはや他の作業の着手を遅らせるのでなければどの作業も前に移動できないスケジュールが生成される. これが活性スケジュールである. 活性スケジュールを系統的に生成するアルゴリズム [3] は知られているが, 一般に活性スケジュールは極めて多数存在するので, これを完全列挙することによって最適処理順序を決定するのは実際上困難である. &lt;br /&gt;
&lt;br /&gt;
　ジョブの処理順序に関する制約を[[先行関係]] (precedence relation) 制約という. 多くの先行関係は2項関係を用いて記述できるが, 特定のジョブを処理順序の先頭にしてはいけない, などのように, 2項関係では表現できないものもある. 着手可能時刻 (release time) あるいは最早着手可能時刻はジョブの最初の作業の処理を開始できる最早時刻をいう. 順序づけするすべてのジョブの着手可能時刻が既知の状況を静的 (static), そうでない場合を動的順序づけという. 各ジョブに納期が指定される場合もある. 各作業の処理に要する時間を処理時間 (processing time) という. 各作業にはこの他, 段取り時間 (setup time), 後始末時間 (removal time), 前後の作業の間の完了と着手の最小時間間隔である遅れ時間 (delay time) などが指定されることがある. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;table&amp;gt;&amp;lt;tr&amp;gt;&amp;lt;td align=center&amp;gt;[[画像:0037-c-a-08+2.png|center|図2：離接グラフ(機械3, ジョブ3)]]&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=center&amp;gt;図２：離接グラフ(機械3, ジョブ3)&amp;lt;/td&amp;gt;&amp;lt;/table&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　ジョブやその作業に様々な条件が付加されることがあるが, ジョブショップにおける順序づけの基本は, 工程順序, 先行関係と整合するような処理順序の中から順序づけ関数を最適化するものを決定することである. これを表示するのに図2のような[[離接グラフ]] (disjunctive graph) が利用される. この図の両方向の矢線の各々に対して一方向を選択しアサイクリックな[[接続グラフ]] (conjunctive graph) を作成すると, 実行可能な処理順序が得られる. 順序づけとは様々な付加的条件の下で, 離接グラフから最適な接続グラフを構成することである, ということもできる. 処理順序 (接続グラフ) を生成する効率的な手続きを[[順序付け規則]] (sequencing rule) と呼び, それが所与の順序づけ関数に関して最適な接続グラフを生成するとき, 最適であるという. 順序づけ規則やスケジューリング・アルゴリズムを構成する際に, [[合成ジョブ]] (composite job) と呼ばれる架空のジョブを導入することがある。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] 秋庭雅夫編, 『生産管理』, 日本規格協会, 1980. &lt;br /&gt;
&lt;br /&gt;
[2] K. R. Baker, ''Introduction to Sequencing and Scheduling,'' Wiley, New York, 1974.&lt;br /&gt;
&lt;br /&gt;
[3] B. Giffler and G. L. Thompson, &amp;quot;Algorithms for Solving Production Scheduling Problems,&amp;quot; ''Operations Research,'' '''8''' (1960), 487-503.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E8%A4%87%E9%9B%91%E3%83%8D%E3%83%83%E3%83%88%E3%83%AF%E3%83%BC%E3%82%AF%E3%80%8B&amp;diff=5010</id>
		<title>《複雑ネットワーク》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E8%A4%87%E9%9B%91%E3%83%8D%E3%83%83%E3%83%88%E3%83%AF%E3%83%BC%E3%82%AF%E3%80%8B&amp;diff=5010"/>
		<updated>2007-07-16T12:06:45Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ふくざつねっとわーく (complex network) 】'''&lt;br /&gt;
&lt;br /&gt;
　現実世界で観察される, 何らかの特徴的な性質を持つグラフのこと. もしくは一般にそのような性質を持つグラフのこと. &lt;br /&gt;
&lt;br /&gt;
　インターネット, WWWのハイパーリンク構造, 交友・知人関係, 論文の引用関係, ニューラル・ネットワーク, たんぱく質の代謝反応など, グラフとして表現される現実の構造の多くは一見複雑な形状をしているが, 自明でない特徴的な性質を共通して持つことが近年分かってきた. そこで, 現実の大規模なグラフ構造の持つ特徴を調べ, その特徴が現れる原理を解明する研究が急速に進展している. &lt;br /&gt;
&lt;br /&gt;
　なお, グラフにおいて点や辺に容量や長さなどの属性がある場合は特にネットワークと言うが, 複雑ネットワークの研究領域では, その区別は明確ではない. また, 特徴的な性質というものも明確に定まっているものではない. &lt;br /&gt;
&lt;br /&gt;
　複雑ネットワークの特徴的な構造として知られる代表的なものとして, まずスケールフリー (scale-free) がある. スケールフリーとは, 次数が&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;である確率&amp;lt;math&amp;gt;p(k)\, &amp;lt;/math&amp;gt;, つまり次数分布がべき乗則を満たすこと（&amp;lt;math&amp;gt;p(k) \propto k^{-\gamma}\, &amp;lt;/math&amp;gt;, ただし&amp;lt;math&amp;gt;\gamma\, &amp;lt;/math&amp;gt;は正の実数）を意味する. &lt;br /&gt;
&lt;br /&gt;
　また, クラスタ係数に関しても特徴的な性質を持つことが多い. ここで, 次数&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;の点&amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;のクラスタ係数は, 隣接点間の辺数を&amp;lt;math&amp;gt;k(k-1)/2\, &amp;lt;/math&amp;gt; (つまり隣接点間辺数の取りうる最大値) で割ったものとして定義され, すべての点にわたるクラスタ係数の平均がそのグラフのクラスタ係数と定義される. 現実の複雑ネットワークのクラスタ係数は, 点数に関わらず比較的大きい値を取ることが知られている. &lt;br /&gt;
&lt;br /&gt;
　スモールワールド (small world) とは, 点数の多さに比較して平均点間距離が小さく, クラスタ係数が大きいことを指す. 単に平均点間距離が小さいことをスモールワールドということもある. この特徴を持つ現実の複雑ネットワークも多い. &lt;br /&gt;
&lt;br /&gt;
　現実の複雑ネットワークが, スケールフリーをはじめ上記で挙げたような性質を持つ原因を解明するために, 様々なモデルが検討されてきた. &lt;br /&gt;
&lt;br /&gt;
　複雑ネットワークの研究の興隆以前から知られていた, Erd&amp;amp;ouml;sとR&amp;amp;eacute;yniのランダム・グラフは, 点集合の任意の二点間に確率的に辺を張ることでグラフを生成するモデルである. ただ, この次数分布はポアソン分布に従うため, スケールフリーではない. また, クラスタ係数は点数&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;の増加にしたがって&amp;lt;math&amp;gt;0\, &amp;lt;/math&amp;gt;に収束する. ただし, 平均点間距離は&amp;lt;math&amp;gt;O(\log n)\, &amp;lt;/math&amp;gt;であって小さいと言える. &lt;br /&gt;
&lt;br /&gt;
　WattsとStrogatzは, 大きなクラスタ係数と小さい平均点間距離を同時に実現するスモールワールド・ネットワークのモデルを提案した. これは, 正方格子の辺集合の一部をランダムにつなぎかえるというものである. ただし, このモデルで生成されるグラフはスケールフリーではない. &lt;br /&gt;
&lt;br /&gt;
　Barab&amp;amp;aacute;siとAlbertによるBAモデルは, 時間の経過とともに点も付け加えられていく「成長」(growth) と, 新しく加わった点は次数の高い既存の点と高い確率で辺で繋がれる「優先的選択」(preferential attachment) という２つの原理を基本としており, スケールフリーであるグラフ（&amp;lt;math&amp;gt;p(k) \propto k^{-3}\, &amp;lt;/math&amp;gt;）を生成する. また, 点数&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;の時, 直径は&amp;lt;math&amp;gt;O(\log n/\log \log n)\, &amp;lt;/math&amp;gt;であり, 平均点間距離は小さい. ただし, クラスタ係数は点数の増加にしたがって0に収束するため, 現実の複雑ネットワークとは違って小さい. &lt;br /&gt;
&lt;br /&gt;
　「成長」と「優先的選択」に基づいたバリエーションとして, 次数の小さい点が選択的に非活性化して新しい点からの辺を受け取れなくなる頂点非活性化モデルなどがある. モデルにはランダム性が組み込まれていることが多いが, 決定的な規則によって点や辺を追加する階層的モデルというものもある. &lt;br /&gt;
&lt;br /&gt;
　「成長」と「優先的選択」とは異なる原理に基づくモデルとして閾値モデルというものがある. これは, 各点には重みが確率的に与えられており, 点&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;j\,&amp;lt;/math&amp;gt;の間には, &amp;lt;math&amp;gt;i\,&amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;j\,&amp;lt;/math&amp;gt;の重みの和や積 (一般的には二点の重みの関数) に基づいて確定的もしくは確率的に辺が張られるというものである. 点の重みが従う確率分布が指数分布に従う場合などに, スケールフリーであるグラフを生成することが分かっている. また平均点間距離は小さい. クラスタ係数は, 点数が増加しても有限な値に留まるため, 大きいと言える. 点間距離の効果も考慮した空間閾値モデルへの拡張もある. &lt;br /&gt;
&lt;br /&gt;
　これらのように, 現実の複雑ネットワークの持つ性質を再現する様々なモデルが提案されているが, 利用する際には, 対象とする分野に応じて適切なモデルを選ぶことが必要である. &lt;br /&gt;
&lt;br /&gt;
　複雑ネットワークの性質の解明が進むにしたがって, それらの性質を持つグラフ上での相互作用やアルゴリズムに関する研究も進みつつある. &lt;br /&gt;
&lt;br /&gt;
　例えば, コンピュータウィルスの拡散過程の研究がある. 伝染病の拡散の研究は古くから行われており, SISモデルなどの確率過程のモデルがあったが, それらはグラフ構造を仮定していない. しかし, コンピュータウィルスの拡散はグラフ構造に強く依存するため, グラフ上のSISモデルであるコンタクト・プロセスをはじめ, 様々なモデルが研究されている. これらは基本的に, 各点が健康・病気・回復・ウィルス潜伏などの状態の一つを取り, 異なる状態の点が隣接すると, それぞれの点の状態が確率的に他の状態に遷移するというものである. BAモデルによって生成されたグラフでは, 感染のしやすさを表す感染確率が小さくても感染が広がりやすいことが知られている. &lt;br /&gt;
&lt;br /&gt;
　Webコミュニティ探索に関する研究も進展しつつある. これは, Webのハイパーリンク構造によるネットワーク (Webグラフ) 内にコミュニティを見出すことである. コミュニティの定義は様々であるが, 相互に密接にリンクを張っているページの集合, 言い換えればWebグラフ内の密な部分グラフという捉え方や, あるページ集合とそれらへリンクを張る (関心を同じくする) ページ集合のなす二部グラフという捉え方が一般的である. このようなコミュニティを発見することによって, 検索エンジンのカバー率の向上や, ディレクトリ検索型検索サイトのカテゴリの自動生成などに応用できる. &lt;br /&gt;
&lt;br /&gt;
　Kleinbergによって提案された, オーソリティとハブからなる二部グラフをコミュニティと考えるものは有名である. これは, 関連するページへ多くのリンクを持つページ (ハブ) は情報の連結点として重要であり, また多くのハブページからリンクされているページ (オーソリティ) は, そのトピックについて重要な情報を持つといういう考え方をベースとしている. Webグラフ構造から各ページのオーソリティとしての価値とハブとしての価値の高いものを選び出すことによってコミュニティを抽出する. &lt;br /&gt;
&lt;br /&gt;
　検索サイトのGoogleで採用されている, 検索結果の重要度を測るページランクという概念は, Webグラフ上のランダムウォークと密接に関係している. 点&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;のランクを&amp;lt;math&amp;gt;r(p)\, &amp;lt;/math&amp;gt;, 次数を&amp;lt;math&amp;gt;d(p)\, &amp;lt;/math&amp;gt;とした時, &amp;lt;math&amp;gt;\textstyle r(p) = {\sum}_{s \in} \{\ p\, &amp;lt;/math&amp;gt;を終点とする有向辺の始点集合&amp;lt;math&amp;gt;S\}\ r(s)/d(s)\, &amp;lt;/math&amp;gt;を満たすものとして, 各点のランクが定義される（ただし, すべての点のランクの和が1であるように正規化される）. あるページのランクは, そこへリンクを張るページが多いほど, そしてリンク元のランクが高いほど高くなる. ただし, リンク元のページから外部へのリンクが多いと, それからの寄与は小さくなる. ページランクは, 有向グラフの遷移確率行列に基づくマルコフ過程にしたがうランダムウォークにおいて, 定常状態における各点での滞在確率に等しい. &lt;br /&gt;
&lt;br /&gt;
　上記に挙げたものの他にも, うわさやデマの広がり, マーケティングにおける広告戦略, パケット制御・カスケード故障などの振る舞いや性能は, グラフ構造に強く依存しており, 現在も精力的に研究が進められている. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] 増田直紀, 今野紀雄, 『複雑ネットワークの科学』, 産業図書, 2005.&lt;br /&gt;
&lt;br /&gt;
[2] A. -L. バラバシ,『新ネットワーク思考 -世界のしくみを読み解く』, NHK出版, 2002.&lt;br /&gt;
  &lt;br /&gt;
[3] D. J. Watts, ''Small Worlds'', Princeton University Press, 1999.&lt;br /&gt;
&lt;br /&gt;
[4] M. E. J. Newman, &amp;quot;The structure and function of complex networks,&amp;quot; ''SIAM Review'' '''45''' (2003), 167-256.&lt;br /&gt;
&lt;br /&gt;
[5] R. Albert, A. -L. Barab&amp;amp;aacute;si, &amp;quot;Statistical mechanics of complex networks,&amp;quot; ''Review of Modern Physics'' '''74''' (2002), 47-97.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E9%9B%A2%E6%95%A3%E5%87%B8%E8%A7%A3%E6%9E%90%E3%80%8B&amp;diff=5009</id>
		<title>《離散凸解析》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E9%9B%A2%E6%95%A3%E5%87%B8%E8%A7%A3%E6%9E%90%E3%80%8B&amp;diff=5009"/>
		<updated>2007-07-16T12:00:49Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【りさんとつかいせき (discrete convex analysis) 】'''&lt;br /&gt;
&lt;br /&gt;
　離散的な集合(例えば整数格子点の集合)の上で定義された関数の構造を，凸解析 ([6]) とマトロイド理論 ([1, 7, 8]) の両方の視点から考察する方法論を，[[離散凸解析]] (discrete convex analysis) ([4, 5])と呼ぶ．より一般的には，解析的な視点と組合せ論的な視点の両方から「組合せ論的な凸性」という構造を考察する方法論を指す．離散最適化 ([2])，システム解析 ([3])，数理経済学などへの応用がある．&lt;br /&gt;
&lt;br /&gt;
　整数格子点上で定義され整数値をとる関数&amp;lt;math&amp;gt;f: {\mathbf Z}^{V} \to {\mathbf Z} \cup \{ \pm\infty \}\, &amp;lt;/math&amp;gt;を考える(&amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;は有限集合である)．&amp;lt;math&amp;gt;{{\rm dom\,}} f = \{ x \in {\mathbf Z}^{V} \mid -\infty &amp;lt; f(x) &amp;lt; +\infty \}\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;の実効定義域と呼び，以下では，&amp;lt;math&amp;gt;{{\rm dom\,}} f \not= \emptyset\, &amp;lt;/math&amp;gt;であるような関数だけを考える．&amp;lt;math&amp;gt;i \in V\, &amp;lt;/math&amp;gt;に対してその特性ベクトルを&amp;lt;math&amp;gt;\chi_{i} \ (\in \{ 0,1 \}^{V})\, &amp;lt;/math&amp;gt; と表わす．ベクトル&amp;lt;math&amp;gt;x \in {\mathbf Z}^{V}\, &amp;lt;/math&amp;gt;に対して，&amp;lt;math&amp;gt;{{\rm supp}^{+}}(x) = \{ i \in V \mid x_{i} &amp;gt; 0 \}\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;{{\rm supp}^{-}}(x) = \{ i \in V \mid x_{i} &amp;lt; 0 \}\, &amp;lt;/math&amp;gt;とおく．関数&amp;lt;math&amp;gt;f: {\mathbf Z}^{V} \to {\mathbf Z} \cup \{ +\infty \}\, &amp;lt;/math&amp;gt;が交換公理:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;任意の &amp;lt;math&amp;gt;x, y \in {{\rm dom\,}} f\, &amp;lt;/math&amp;gt; と任意の &amp;lt;math&amp;gt;i \in {{\rm supp}^{+}}(x-y)\, &amp;lt;/math&amp;gt; に対して, ある&amp;lt;br&amp;gt; &amp;lt;math&amp;gt;j \in {{\rm supp}^{-}}(x-y)\, &amp;lt;/math&amp;gt; が存在して&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;f(x)+f(y) \geq f(x-\chi_{i}+\chi_{j}) + f(y+\chi_{i}-\chi_{j})\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を満たすとき，[[M凸関数]] (M-convex function) という．M凸関数&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;の実効定義域&amp;lt;math&amp;gt;{{\rm dom\,}} f\, &amp;lt;/math&amp;gt;は整基多面体(に含まれる整数格子点)である．&lt;br /&gt;
&lt;br /&gt;
　関数g:&amp;lt;math&amp;gt; {\mathbf Z}^{V} \to {\mathbf Z} \cup \{ +\infty \}\, &amp;lt;/math&amp;gt;が2条件:&lt;br /&gt;
　&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;g(p) + g(q) \geq g(p \vee q) + g(p \wedge q)&lt;br /&gt;
\qquad ( p, q \in {\mathbf Z}^{V})  ,\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\exists r \in {\mathbf Z}, \forall p \in {\mathbf Z}^{V}: \ &lt;br /&gt;
 g(p+{\mathbf 1}) = g(p) + r  ,\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を満たすとき，[[L凸関数]] (L-convex function) という．ここで，&amp;lt;math&amp;gt;p \vee q, p \wedge q\, &amp;lt;/math&amp;gt;は，それぞれ，成分毎に最大値, 最小値をとって得られるベクトル(すなわち，&amp;lt;math&amp;gt;(p \vee q)_{i} = \max(p_{i}, q_{i})\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;(p \wedge q)_{i} = \min(p_{i}, q_{i}))\, &amp;lt;/math&amp;gt;を表し，&amp;lt;math&amp;gt;{\mathbf 1}=(1,1,\ldots,1) \in {\mathbf Z}^{V}\, &amp;lt;/math&amp;gt;である．L凸関数&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;の実効定義域&amp;lt;math&amp;gt;{{\rm dom\,}} g\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;\vee\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\wedge\, &amp;lt;/math&amp;gt;に関して&amp;lt;math&amp;gt;{\mathbf Z}^{V}\, &amp;lt;/math&amp;gt;の部分束を成す．また，正斉次L凸関数は，劣モジュラ集合関数と同一視することができる．&lt;br /&gt;
&lt;br /&gt;
　一般に関数&amp;lt;math&amp;gt;h: {\mathbf Z}^{V} \to {\mathbf Z} \cup \{ \pm\infty \}\, &amp;lt;/math&amp;gt; の凸共役&amp;lt;math&amp;gt;h^{\bullet}\, &amp;lt;/math&amp;gt;，凹共役&amp;lt;math&amp;gt;h^{\circ}\, &amp;lt;/math&amp;gt;を&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{lll}&lt;br /&gt;
 h^{\bullet}(p) &lt;br /&gt;
 &amp;amp;=&amp;amp; \sup\{  \langle p, x \rangle - h(x) \mid x \in {\mathbf Z}^{V} \}&lt;br /&gt;
\qquad ( p \in {\mathbf Z}^{V}) ,&lt;br /&gt;
\\&lt;br /&gt;
 h^{\circ}(p) &lt;br /&gt;
 &amp;amp;=&amp;amp; \inf\{  \langle p, x \rangle - h(x) \mid x \in {\mathbf Z}^{V} \}&lt;br /&gt;
\qquad ( p \in {\mathbf Z}^{V})&lt;br /&gt;
\end{array}&lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と定義する．ここで，&amp;lt;math&amp;gt;\textstyle \langle p, x \rangle = \sum_{i \in V} p_{i}x_{i}\, &amp;lt;/math&amp;gt;である．この対応&amp;lt;math&amp;gt;h \mapsto h^{\bullet}\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;h \mapsto h^{\circ}\, &amp;lt;/math&amp;gt; を(凸，凹)離散フェンシェル・ルジャンドル(Fenchel-Legendre)変換と呼ぶ．M凸関数とL凸関数は離散フェンシェル・ルジャンドル変換に関して共役関係にあり，対応&amp;lt;math&amp;gt;f \mapsto f^{\bullet}\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;g \mapsto g^{\bullet}\, &amp;lt;/math&amp;gt;はM凸関数&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;とL凸関数&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;の間の１対１対応を与える．すなわち，M凸関数&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;とL凸関数&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;に対して，&amp;lt;math&amp;gt;f^{\bullet}\, &amp;lt;/math&amp;gt;はL凸関数, &amp;lt;math&amp;gt;g^{\bullet}\, &amp;lt;/math&amp;gt;はM凸関数で，&amp;lt;math&amp;gt;(f^{\bullet})^{\bullet}=f\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;(g^{\bullet})^{\bullet}=g\, &amp;lt;/math&amp;gt;が成り立つ(共役性定理)．&lt;br /&gt;
&lt;br /&gt;
　M凸関数やL凸関数に対して，[[離散分離定理]] (discrete separation theorem) や[[フェンシェル型双対定理]] (Fenchel-type duality theorem) に象徴されるような離散双対性が成り立つ．&lt;br /&gt;
&lt;br /&gt;
　M凸関数に関する離散分離定理(M分離定理)を述べる:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:[M分離定理] &amp;lt;math&amp;gt;f: {\mathbf Z}^{V} \to {\mathbf Z} \cup \{ +\infty \}\, &amp;lt;/math&amp;gt; をM凸関数，&amp;lt;math&amp;gt;g: {\mathbf Z}^{V} \to {\mathbf Z} \cup \{ -\infty \}\, &amp;lt;/math&amp;gt;をM凹関数とし, &amp;lt;math&amp;gt;{{\rm dom\,}} f \cap {{\rm dom\,}} g \not= \emptyset\, &amp;lt;/math&amp;gt;または&amp;lt;math&amp;gt;{{\rm dom\,}} f^{\bullet} \cap {{\rm dom\,}} g^{\circ} \not= \emptyset\, &amp;lt;/math&amp;gt;であると仮定する．このとき, &amp;lt;math&amp;gt;f(x) \geq g(x)\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(\forall \ x \in {\mathbf Z}^{V})\, &amp;lt;/math&amp;gt;ならば, ある&amp;lt;math&amp;gt;\alpha \in {\mathbf Z}\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;p \in {\mathbf Z}^{V}\, &amp;lt;/math&amp;gt;が存在して &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;f(x) \geq \alpha + \langle p, x \rangle  \geq g(x)   \qquad  (\forall \ x \in {\mathbf Z}^{V})\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　が成り立つ(&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;がM凹関数とは&amp;lt;math&amp;gt;-g\, &amp;lt;/math&amp;gt;がM凸関数のことである)．&lt;br /&gt;
&lt;br /&gt;
ここで，&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;が整数ベクトルに選べることが離散性の反映である．上の主張で，&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;をL凸関数，&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;をL凹関数に置き換えたものも成立する(L分離定理)．L分離定理は，その特殊ケースとして，劣モジュラ集合関数に関するA. Frankの離散分離定理 ([1] 参照) を含んでいる．&lt;br /&gt;
&lt;br /&gt;
　M分離定理とL分離定理は互いに共役の関係にあるが，次に述べるフェンシェル(フェンケル)型双対定理は自己共役の形になっている．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:[フェンシェル型双対定理]   &amp;lt;math&amp;gt;f: {\mathbf Z}^{V} \to {\mathbf Z} \cup \{ +\infty \}\, &amp;lt;/math&amp;gt; をM凸関数，&amp;lt;math&amp;gt;g: {\mathbf Z}^{V} \to {\mathbf Z} \cup \{ -\infty \}\, &amp;lt;/math&amp;gt;をM凹関数とし, &amp;lt;math&amp;gt;{{\rm dom\,}} f \cap {{\rm dom\,}} g \not= \emptyset\, &amp;lt;/math&amp;gt;または&amp;lt;math&amp;gt;{{\rm dom\,}} f^{\bullet} \cap {{\rm dom\,}} g^{\circ} \not= \emptyset\, &amp;lt;/math&amp;gt;であると仮定する．このとき, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\inf\{ f(x) - g(x) \mid x \in {\mathbf Z}^{V}  \}&lt;br /&gt;
 = \sup\{ g^{\circ}(p) - f^{\bullet}(p) \mid p \in {\mathbf Z}^{V} \}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　が成り立つ．さらに，この両辺が有限値なら，&amp;lt;math&amp;gt;\inf\, &amp;lt;/math&amp;gt;を達成する&amp;lt;math&amp;gt;x \in {{\rm dom\,}} f \cap {{\rm dom\,}} g&amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;\sup\, &amp;lt;/math&amp;gt;を達成する&amp;lt;math&amp;gt;p \in {{\rm dom\,}} f^{\bullet} \cap {{\rm dom\,}} g^{\circ}\, &amp;lt;/math&amp;gt;が存在する．&lt;br /&gt;
&lt;br /&gt;
上の定理は，非線形整数計画に関する強双対性を主張しており，その本質的な部分は，&amp;lt;math&amp;gt;\inf\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;\sup\, &amp;lt;/math&amp;gt;をとる範囲をそれぞれ整数ベクトルに限ってよいという主張にある．&lt;br /&gt;
&lt;br /&gt;
　M凸関数，L凸関数に関する種々の問題に対して効率的なアルゴリズムが開発されている．これに関しては [5] の参考文献を参照されたい．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] S. Fujishige, ''Submodular Functions and Optimization'', North-Holland, 1991.&lt;br /&gt;
&lt;br /&gt;
[2] N. Katoh and T. Ibaraki, &amp;quot;Resource allocation problems,&amp;quot; in ''Handbook of Combinatorial Optimization, Vol.2'', D. -Z. Du and P. M. Pardalos, eds., Kluwer, 159-260, 1998.&lt;br /&gt;
&lt;br /&gt;
[3] 室田一雄, 「離散凸解析」, 『応用数理』，'''6''' (1996), 259-269.&lt;br /&gt;
&lt;br /&gt;
[4] K. Murota, Discrete convex analysis, ''Mathematical Programming'', '''83''' (1998), 313-371.&lt;br /&gt;
&lt;br /&gt;
[5] 室田一雄,「離散凸解析」, 藤重 悟 編『離散構造とアルゴリズムV』, 近代科学社, 第2章，51-100, 1998.&lt;br /&gt;
&lt;br /&gt;
[6] R. T. Rockafellar, ''Convex Analysis'', Princeton University Press, 1970. &lt;br /&gt;
&lt;br /&gt;
[7] D. J. A. Welsh, ''Matroid Theory''，Academic Press, 1976.&lt;br /&gt;
&lt;br /&gt;
[8] N. White, ed., ''Theory of Matroids'', Cambridge University Press, 1986.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%8A%A3%E3%83%A2%E3%82%B8%E3%83%A5%E3%83%A9%E6%9C%80%E9%81%A9%E5%8C%96%E3%80%8B&amp;diff=5008</id>
		<title>《劣モジュラ最適化》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%8A%A3%E3%83%A2%E3%82%B8%E3%83%A5%E3%83%A9%E6%9C%80%E9%81%A9%E5%8C%96%E3%80%8B&amp;diff=5008"/>
		<updated>2007-07-16T11:36:00Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【れつもじゅらさいてきか (submodular optimization) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[劣モジュラ最適化]] (submodular optimization) とは, [[劣モジュラ関数]] (submodular function) を制約条件または目的関数に含んだ離散最適化を指す. 劣モジュラ最適化は, 非線型最適化における凸最適化のように, 離散最適化における基本的な位置を占めている. &lt;br /&gt;
&lt;br /&gt;
　有限集合 &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt; の部分集合族 &amp;lt;math&amp;gt;\mathcal {D}\subseteq 2^N\, &amp;lt;/math&amp;gt; が, &amp;lt;math&amp;gt;\emptyset\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt; を共に含み, 任意の &amp;lt;math&amp;gt;X,Y\in\mathcal {D}\, &amp;lt;/math&amp;gt; に対して &amp;lt;math&amp;gt;X\cup Y, X\cap Y\in\mathcal {D}\, &amp;lt;/math&amp;gt; を満たすものとする. このとき, &amp;lt;math&amp;gt;\mathcal {D}\, &amp;lt;/math&amp;gt; は分配束をなす. 関数 &amp;lt;math&amp;gt;f:\mathcal {D}\to\mathbf {R}\, &amp;lt;/math&amp;gt; が, 任意の &amp;lt;math&amp;gt;X,Y\in\mathcal {D}\, &amp;lt;/math&amp;gt; に対して &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;f(X)+f(Y)\geq f(X\cup Y)+f(X\cap Y)\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を満たすとき, &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; は劣モジュラ関数と呼ばれる. 不等号が常に等号で成立する場合には, &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; をモジュラ関数という. 分配束 &amp;lt;math&amp;gt;\mathcal {D}\, &amp;lt;/math&amp;gt; と劣モジュラ関数 &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; の組 &amp;lt;math&amp;gt;(\mathcal {D},f)\, &amp;lt;/math&amp;gt; は, &amp;lt;math&amp;gt;f(\emptyset)=0\, &amp;lt;/math&amp;gt; のとき, [[劣モジュラシステム]] (submodular system) と呼ばれる. さらに, &amp;lt;math&amp;gt;\mathcal {D}=2^N\, &amp;lt;/math&amp;gt; であり, &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; が単調性を有するとき, すなわち任意の &amp;lt;math&amp;gt;X,Y\subseteq N\, &amp;lt;/math&amp;gt; に対して &amp;lt;math&amp;gt;X\subseteq Y \Rightarrow f(X)\leq f(Y)\, &amp;lt;/math&amp;gt; が成り立つとき, &amp;lt;math&amp;gt;(N,f)\, &amp;lt;/math&amp;gt; を[[ポリマトロイド]] (polymatroid)という. &lt;br /&gt;
&lt;br /&gt;
　オペレーションズ・リサーチにおいて重要な劣モジュラ関数の代表的な例を以下に挙げる. &lt;br /&gt;
&lt;br /&gt;
'''カット容量関数'''　有向グラフ &amp;lt;math&amp;gt;G=(N,A)\, &amp;lt;/math&amp;gt; において, 各枝 &amp;lt;math&amp;gt;a\in A\, &amp;lt;/math&amp;gt; に非負の容量 &amp;lt;math&amp;gt;c(a)\, &amp;lt;/math&amp;gt; が与えられているとき, &amp;lt;math&amp;gt;\textstyle \kappa(X)=\sum\{c(a)\mid a\in \Delta^+X\}\, &amp;lt;/math&amp;gt; で定義される容量関数 &amp;lt;math&amp;gt;\kappa:2^N\to\mathbf {R}\, &amp;lt;/math&amp;gt; は, 劣モジュラ関数となる. ここで, &amp;lt;math&amp;gt;\Delta^+X\, &amp;lt;/math&amp;gt; は, &amp;lt;math&amp;gt;X\subseteq N\, &amp;lt;/math&amp;gt; から出る枝の集合を表す. &lt;br /&gt;
&lt;br /&gt;
'''マトロイド階数関数'''　マトロイド &amp;lt;math&amp;gt;\mathcal {M}=(N,\mathcal {I})\, &amp;lt;/math&amp;gt; において, 階数関数 &amp;lt;math&amp;gt;\rho:2^N\to\mathbf {Z}\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;\rho(X)=\max\{|I|\mid I\subseteq X,\,I\in \mathcal {I}\}\, &amp;lt;/math&amp;gt; で定めると, &amp;lt;math&amp;gt;(N,\rho)\, &amp;lt;/math&amp;gt; はポリマトロイドとなる.  &lt;br /&gt;
&lt;br /&gt;
'''エントロピー関数'''　有限アルファベットの離散確率変数の集合 &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt; に関して, 空でない部分集合 &amp;lt;math&amp;gt;X\subseteq N\, &amp;lt;/math&amp;gt; のエントロピーを &amp;lt;math&amp;gt;\eta(X)\, &amp;lt;/math&amp;gt; と書き, &amp;lt;math&amp;gt;\eta(\emptyset)=0\, &amp;lt;/math&amp;gt; と定めると, &amp;lt;math&amp;gt;(N,\eta)\, &amp;lt;/math&amp;gt; はポリマトロイドとなる. &lt;br /&gt;
&lt;br /&gt;
　有限集合 &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt; 上の実数値関数全体のなす線型空間を &amp;lt;math&amp;gt;\mathbf {R}^N\, &amp;lt;/math&amp;gt; と表す. ベクトル &amp;lt;math&amp;gt;x\in\mathbf {R}^N\, &amp;lt;/math&amp;gt; は, 部分集合 &amp;lt;math&amp;gt;X\subseteq N\, &amp;lt;/math&amp;gt; に対して &amp;lt;math&amp;gt;\textstyle x(X)=\sum\{x(i)\mid i\in X\}\, &amp;lt;/math&amp;gt; と定義することによって, &amp;lt;math&amp;gt;x(\emptyset)=0\, &amp;lt;/math&amp;gt; であるようなモジュラ関数 &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; と同一視される.劣モジュラシステム &amp;lt;math&amp;gt;(\mathcal {D},f)\, &amp;lt;/math&amp;gt; は, &amp;lt;math&amp;gt;\mathbf {R}^N\, &amp;lt;/math&amp;gt; 中の[[基多面体]]　(base polyhedron)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mbox{B}(f)=\{x\mid x\in\mathbf {R}^N,\;x(N)=f(N),\;\forall X\in\mathcal {D}: x(X)\leq f(X)\} \, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を定める. 基 &amp;lt;math&amp;gt;x\in\mbox{B}(f)\, &amp;lt;/math&amp;gt; と相異なる &amp;lt;math&amp;gt;i,j\in N\, &amp;lt;/math&amp;gt; に対して, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\tilde{c}(x,i,j)=\min\{f(X)-x(X)\mid i\in X\in\mathcal {D}, j\notin X\}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で定義される量を交換容量と呼ぶ. &lt;br /&gt;
&lt;br /&gt;
　基多面体上では, 貪欲アルゴリズムによって, 線型目的関数の最適化が可能である. 一般に, 楕円体法を通じて, 最適化問題と分離問題とが計算量の多項式性という観点からは等価であるという原理に基づいて, 強多項式時間で劣モジュラ関数の最小化が可能であることが示されている [3] . しかし, 楕円体法は実際上効率的とは言い難く, 組合せ的な多項式時間アルゴリズムの開発が望まれている. (ごく最近, Iwata-Fleischer-FujishigeとSchrijverによって独立に解決された. ) &lt;br /&gt;
&lt;br /&gt;
　有向グラフ &amp;lt;math&amp;gt;G=(N,A)\, &amp;lt;/math&amp;gt; と, &amp;lt;math&amp;gt;f(N)=0\, &amp;lt;/math&amp;gt; を満たす &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt; 上の劣モジュラシステム &amp;lt;math&amp;gt;(\mathcal {D},f)\, &amp;lt;/math&amp;gt; を考える. 各枝 &amp;lt;math&amp;gt;a\, &amp;lt;/math&amp;gt; の始点を &amp;lt;math&amp;gt;\partial^+a\, &amp;lt;/math&amp;gt;, 終点を &amp;lt;math&amp;gt;\partial^-a\, &amp;lt;/math&amp;gt; と書き, &amp;lt;math&amp;gt;X\subseteq N\, &amp;lt;/math&amp;gt; から出る枝の集合を &amp;lt;math&amp;gt;\Delta^+X\, &amp;lt;/math&amp;gt;, 入る枝の集合を &amp;lt;math&amp;gt;\Delta^-X\, &amp;lt;/math&amp;gt; と表す. 任意の &amp;lt;math&amp;gt;\varphi\in\mathbf {R}^A\, &amp;lt;/math&amp;gt; に対して, 境界 &amp;lt;math&amp;gt;\partial\varphi\in\mathbf {R}^N\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;\partial\varphi(X)=\varphi(\Delta^+X)-\varphi(\Delta^-X)\, &amp;lt;/math&amp;gt; で定める. [[劣モジュラフロー問題]] (submodular flow problem) とは, 枝流量の上下限 &amp;lt;math&amp;gt;\bar {c},\underline {c}\in\mathbf {R}^A\, &amp;lt;/math&amp;gt; と費用 &amp;lt;math&amp;gt;d\in\mathbf {R}^A\, &amp;lt;/math&amp;gt; が与えられたとき, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\min\{\sum_{a\in A}d(a)\varphi(a)\mid\partial\varphi\in\mbox{B}(f),\; &lt;br /&gt;
\forall a\in A: \underline {c}(a)\leq\varphi(a)\leq\bar {c}(a)\}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を求める問題である [1] . 特に, &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; がモジュラ関数の場合には, 最小費用フロー問題となることに注意する. &lt;br /&gt;
&lt;br /&gt;
　劣モジュラフロー問題は, 任意の &amp;lt;math&amp;gt;X\in\mathcal {D}\, &amp;lt;/math&amp;gt; に対して&amp;lt;math&amp;gt;\underline {c}(\Delta^+X)-\bar {c}(\Delta^-X)\leq f(X)\, &amp;lt;/math&amp;gt; が成立するとき, かつそのときに限り, 実行可能解を有する. さらに, &amp;lt;math&amp;gt;\bar {c},\underline {c},f\, &amp;lt;/math&amp;gt; が整数値関数であれば, 整数実行可能解が存在する. &lt;br /&gt;
&lt;br /&gt;
　実行可能解 &amp;lt;math&amp;gt;\varphi\, &amp;lt;/math&amp;gt; は, 以下の条件を満たす &amp;lt;math&amp;gt;p\in\mathbf {R}^N\, &amp;lt;/math&amp;gt; が存在するとき, かつそのときに限り, 最適解である. ただし, 各枝 &amp;lt;math&amp;gt;a\in A\, &amp;lt;/math&amp;gt; に対して&amp;lt;math&amp;gt;d_p(a)=d(a)+p(\partial^+a)-p(\partial^-a)\, &amp;lt;/math&amp;gt; と定める. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*任意の &amp;lt;math&amp;gt;a\in A\, &amp;lt;/math&amp;gt; に対して, &amp;lt;math&amp;gt;d_p(a)&amp;gt;0\Rightarrow\varphi(a)=\underline {c}(a)\, \, &amp;lt;/math&amp;gt;, および&amp;lt;math&amp;gt;d_p(a)&amp;lt;0 \Rightarrow \varphi(a)=\bar {c}(a)\, &amp;lt;/math&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
*任意の相異なる &amp;lt;math&amp;gt;i,j\in N\, &amp;lt;/math&amp;gt; に対して, &amp;lt;math&amp;gt;p(j)&amp;lt;p(i)\Rightarrow \tilde{c}(\partial\varphi,i,j)=0\, &amp;lt;/math&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
さらに, &amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt; が整数値関数の場合には, &amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt; を整数値関数に限ることができる.&lt;br /&gt;
&lt;br /&gt;
　最小費用フロー問題の解法を一般化することによって, 劣モジュラフロー問題を解くアルゴリズムが提案されている [5] . これらの組合せ的なアルゴリズムは, いずれも劣モジュラシステム &amp;lt;math&amp;gt;(\mathcal {D},f)\, &amp;lt;/math&amp;gt; に関する交換容量を計算する手続きの存在を仮定している. 交換容量の計算は, 定義より明らかなように, 劣モジュラ関数の最小化になっており, 楕円体法を用いれば強多項式時間で可能なことが知られている. しかし, 劣モジュラフロー問題の応用に際しては, 問題の特殊性を活かした組合せ的な手続きが設計できる場合が少なくない. &lt;br /&gt;
&lt;br /&gt;
　劣モジュラ関数 &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; の最小値を達成する &amp;lt;math&amp;gt;X\in\mathcal {D}\, &amp;lt;/math&amp;gt; の全体は, &amp;lt;math&amp;gt;\mathcal {D}\, &amp;lt;/math&amp;gt; の部分分配束をなす. バーコフ(G. Birkhoff)の表現定理より, この部分分配束は &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt; の適当な部分集合への分割と各成分間の半順序関係によって表すことができる. この原理に基づいて劣モジュラ関数で記述された離散システムを分解する手法を総称して[[基本分割]] (principal partition) と呼ぶ. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] J. Edmonds and R. Giles, &amp;quot;A min-max relation for submodular functions on graphs,&amp;quot; in ''Studies in Integer Programming''}, P. L. Hammer, E. L. Johnson, and B. H. Korte, eds., North-Holland, 185-204, 1977.  &lt;br /&gt;
&lt;br /&gt;
[2] S. Fujishige, ''Submodular Functions and Optimization'', North-Holland, 1991.&lt;br /&gt;
&lt;br /&gt;
[3] M. Gr&amp;amp;ouml;tschel, L. Lov\'asz and A. Schrijver, ''Geometric Algorithms and Combinatorial Optimization'', Springer-Verlag, 1988. &lt;br /&gt;
&lt;br /&gt;
[4] 伊理正夫, 藤重悟, 大山逹雄, 『グラフ・ネットワーク・マトロイド』, 産業図書, 1986. &lt;br /&gt;
&lt;br /&gt;
[5] 岩田覚, 「劣モジュラ流問題」, 藤重悟 編　『離散構造とアルゴリズム Ⅵ』, 近代科学社, 第4章，127-170, 1999.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%9E%E3%83%88%E3%83%AD%E3%82%A4%E3%83%89%E3%80%8B&amp;diff=5007</id>
		<title>《マトロイド》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%9E%E3%83%88%E3%83%AD%E3%82%A4%E3%83%89%E3%80%8B&amp;diff=5007"/>
		<updated>2007-07-16T11:30:48Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【まとろいど (matroid) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[マトロイド]] (matroid) は, 線型空間内のベクトル集合の一次独立・従属といった概念の組合せ論的な側面を抽象化して得られる公理系を満たすものとして定義されている. 有限集合 &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt; とその部分集合族 &amp;lt;math&amp;gt;\mathcal I\, &amp;lt;/math&amp;gt; が以下の (I0)-(I2) を満たすとき, &amp;lt;math&amp;gt;(N,\mathcal I)\, &amp;lt;/math&amp;gt; はマトロイドと呼ばれる.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{(I0)} \quad \emptyset \in \mathcal I., &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{(I1)} \quad I\subseteq J \in \mathcal I\Rightarrow I \in \mathcal I.\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{(I2)} \quad I,J \in \mathcal I, |I|&amp;lt;|J|\Rightarrow\exists j \in  J \setminus I: I\cup\{j\} \in \mathcal I.\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
マトロイド &amp;lt;math&amp;gt;\mathbf{M}=(N,\mathcal I)\, &amp;lt;/math&amp;gt; において, &amp;lt;math&amp;gt;N\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;\mathbf{M}\, &amp;lt;/math&amp;gt; の台集合, &amp;lt;math&amp;gt;\mathcal I\, &amp;lt;/math&amp;gt; を[[独立集合族]] (independent set family) という.部分集合 &amp;lt;math&amp;gt;I \in \mathcal I\, &amp;lt;/math&amp;gt; は, &amp;lt;math&amp;gt;\mathbf{M}\, &amp;lt;/math&amp;gt; の独立集合と呼ばれる. &lt;br /&gt;
&lt;br /&gt;
　マトロイド &amp;lt;math&amp;gt;\mathbf{M}\, &amp;lt;/math&amp;gt; の基とは, 極大な独立集合のことである. 公理 (I2) から明らかなように, 基の要素数は全て等しい. この数をマトロイド &amp;lt;math&amp;gt;\mathbf{M}\, &amp;lt;/math&amp;gt; の階数という. 基の全体を&amp;lt;math&amp;gt;\mathcal{B}\, &amp;lt;/math&amp;gt; と書き, &amp;lt;math&amp;gt;\mathbf{M}\, &amp;lt;/math&amp;gt; の[[基族]] (base family) と呼ぶ. 基族 &amp;lt;math&amp;gt;\mathcal{B}\, &amp;lt;/math&amp;gt; は以下の (B0)-(B1) を満たす. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{(B0)} \quad \mathcal{B}\neq\emptyset.\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{(B1)} \quad B,F \in \mathcal{B}, i \in  B\setminus F\Rightarrow\exists j \in  F\setminus B: (B\setminus\{i\})\cup\{j\} \in \mathcal{B}.\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　マトロイド &amp;lt;math&amp;gt;\mathbf{M}\, &amp;lt;/math&amp;gt; の[[階数関数]] (rank function) &amp;lt;math&amp;gt;\rho\, &amp;lt;/math&amp;gt; は, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\rho(X)=\max\{|I|\mid I\subseteq X,\, I  \in \mathcal I\} &lt;br /&gt;
\quad\quad\quad(X\subseteq N)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と定義される. 階数関数 &amp;lt;math&amp;gt;\rho\, &amp;lt;/math&amp;gt; は以下の (R0)-(R3) を満たしている. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{(R0)} \quad \rho(\emptyset)=0\, &amp;lt;/math&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{(R1)} \quad \forall X\subseteq N: \rho(X)\leq |X|\, &amp;lt;/math&amp;gt;.  &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{(R2)} \quad X\subseteq Y \Rightarrow \rho(X)\leq\rho(Y)\, &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\mathbf{(R3)} \quad \forall X,Y\subseteq N: \rho(X)+\rho(Y)\geq\rho(X\cap Y)+\rho(X\cup Y)\, &amp;lt;/math&amp;gt;.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
特に, (R3) は &amp;lt;math&amp;gt;\rho\, &amp;lt;/math&amp;gt; が[[劣モジュラ関数]] (submodular function) であることを示している. &lt;br /&gt;
&lt;br /&gt;
　ここでは, (I0)-(I2) によってマトロイドを定義したが, (B0)-(B1) を満たす基族 &amp;lt;math&amp;gt;\mathcal{B}\, &amp;lt;/math&amp;gt; からマトロイドを定義することもできる. この場合, 独立集合は基の部分集合として定義される. 同様に, (R0)-(R3) を満たす階数関数によってマトロイドを定義することもできる.  この場合, 独立集合族は &amp;lt;math&amp;gt;\mathcal I=\{I\mid \rho(I)=|I|\}\, &amp;lt;/math&amp;gt; によって定められる. &lt;br /&gt;
&lt;br /&gt;
　離散最適化に現れるマトロイドの代表的な例を以下に挙げる. &lt;br /&gt;
&lt;br /&gt;
'''グラフ的マトロイド'''　点集合 &amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;, 枝集合 &amp;lt;math&amp;gt;E\, &amp;lt;/math&amp;gt; を持つ無向グラフ &amp;lt;math&amp;gt;G=(V,E)\, &amp;lt;/math&amp;gt; を考える. 枝集合の部分集合のうち, 閉路を含まないものの全体を &amp;lt;math&amp;gt;\mathcal I\, &amp;lt;/math&amp;gt; とすると, &amp;lt;math&amp;gt;(E,\mathcal I)\, &amp;lt;/math&amp;gt; は (I0)-(I2) を満たし, マトロイドになる. このようにして得られるマトロイドをグラフ的マトロイドと呼ぶ.  &lt;br /&gt;
&lt;br /&gt;
'''横断マトロイド'''　点集合 &amp;lt;math&amp;gt;U\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;, 枝集合 &amp;lt;math&amp;gt;E\, &amp;lt;/math&amp;gt; からなる2部グラフ &amp;lt;math&amp;gt;H=(U,V;E)\, &amp;lt;/math&amp;gt; を考える. 枝部分集合 &amp;lt;math&amp;gt;M\subseteq E\, &amp;lt;/math&amp;gt; で端点を共有しないものを &amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt; のマッチングという. 点集合 &amp;lt;math&amp;gt;U\, &amp;lt;/math&amp;gt; の部分集合で, &amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt; のマッチングの &amp;lt;math&amp;gt;U\, &amp;lt;/math&amp;gt; における端点集合となり得るものの全体を &amp;lt;math&amp;gt;\mathcal I\, &amp;lt;/math&amp;gt; とする. このとき, &amp;lt;math&amp;gt;(U,\mathcal I)\, &amp;lt;/math&amp;gt; は (I0)-(I2) を満たし, マトロイドになる. このようにして得られるマトロイド &amp;lt;math&amp;gt;(U,\mathcal I)\, &amp;lt;/math&amp;gt; を横断マトロイドと呼ぶ.  &lt;br /&gt;
&lt;br /&gt;
　マトロイド &amp;lt;math&amp;gt;\mathbf{M}=(N,\mathcal I)\, &amp;lt;/math&amp;gt; の各要素 &amp;lt;math&amp;gt;i \in  N\, &amp;lt;/math&amp;gt; に重み &amp;lt;math&amp;gt;w(i)\, &amp;lt;/math&amp;gt; が与えられたとき, 以下の様な[[貪欲アルゴリズム]]　(greedy algorithm)　を適用して最終的に得られる &amp;lt;math&amp;gt;I\, &amp;lt;/math&amp;gt; が, 重み最小の基, すなわち, &amp;lt;math&amp;gt;\textstyle w(B)=\sum\{w(i)\mid i \in  B\}\, &amp;lt;/math&amp;gt; を最小にする基 &amp;lt;math&amp;gt;B \in \mathcal{B}\, &amp;lt;/math&amp;gt; となる.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;math&amp;gt;I\leftarrow\emptyset; S\leftarrow N; \, &amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
*&amp;lt;math&amp;gt;S=\emptyset\, &amp;lt;/math&amp;gt; となるまで, 以下を繰り返す.  &lt;br /&gt;
::&amp;lt;math&amp;gt;- \; S\, &amp;lt;/math&amp;gt; の中で, 重み最小の要素を &amp;lt;math&amp;gt;j\, &amp;lt;/math&amp;gt; とする; &amp;lt;math&amp;gt;S\leftarrow S-\{j\};\, &amp;lt;/math&amp;gt; &lt;br /&gt;
:: &amp;lt;math&amp;gt;-\, &amp;lt;/math&amp;gt;もし &amp;lt;math&amp;gt;I\cup\{j\} \in \mathcal I\, &amp;lt;/math&amp;gt; であれば, &amp;lt;math&amp;gt;I\leftarrow I\cup \{j\}.\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
全く同様のアルゴリズムによって, 重みの最大化も可能である. &lt;br /&gt;
&lt;br /&gt;
　離散最適化におけるマトロイドの重要性は, 貪欲アルゴリズムのみならず, [[共通マトロイド問題]] (matroid intersection problem)　に負うところが大きい. 共通マトロイド問題とは, 台集合を共有するマトロイド &amp;lt;math&amp;gt;\mathbf{M}^+=(N,\mathcal I^+)\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;\mathbf{M}^-=(N,\mathcal I^-)\, &amp;lt;/math&amp;gt; における共通独立集合のうちで, 要素数最大のものを求める問題である. この問題の最適値は, &amp;lt;math&amp;gt;\mathbf{M}^+\, &amp;lt;/math&amp;gt; の階数関数 &amp;lt;math&amp;gt;\rho^+\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;\mathbf{M}^-\, &amp;lt;/math&amp;gt; の階数関数 &amp;lt;math&amp;gt;\rho^-\, &amp;lt;/math&amp;gt; を用いて, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\max\{|I|\mid I \in \mathcal I^+\cap\mathcal I^-\}=\min\{\rho^+(X)+\rho^-(N-X)\mid X\subseteq N\}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と特徴付けられる [1] . 共通マトロイド問題は, 回路理論やシステム解析においても本質的な役割を果たしている [2, 3, 5] .  &lt;br /&gt;
&lt;br /&gt;
　マトロイドが, 行列における一次独立性を抽象化して得られたのに対し, 対称行列や歪対称行列の正則主小行列の組合せ的な性質を抽象化した[[デルタマトロイド]] (delta-matroid) が提案された. デルタマトロイドは, マトロイドの一般化であり, 貪欲アルゴリズムが適用可能であると同時に, 一般グラフ上のマッチングの端点集合族をも包含する枠組として注目されている.&lt;br /&gt;
&lt;br /&gt;
　また, 多項式行列の小行列式の次数の抽象化として[[付値マトロイド]] (valuated matroid) が提案された. 付値マトロイドの研究は, 劣モジュラ関数の凸性に関する理論と結び付いて, 離散凸解析と呼ばれる分野に発展している.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] J. Edmonds, &amp;quot;Submodular functions, matroids, and certain polyhedra,&amp;quot; in ''Combinatorial Structures and Their Applications'', R. Guy, H. Hanani, N. Sauer, and J. Sch&amp;amp;ouml;nheim, eds., Gordon and Breach, 69-87, 1970. &lt;br /&gt;
&lt;br /&gt;
[2] 室田一雄, 「マトロイドとシステム解析」, 藤重悟 編『離散構造とアルゴリズムⅠ』, 近代科学社, 第2章，57-109, 1992.&lt;br /&gt;
&lt;br /&gt;
[3] K. Murota, ''Matrices and Matroids for Systems Analysis'', Springer-Verlag, 1999. &lt;br /&gt;
&lt;br /&gt;
[4] J. G. Oxley, ''Matroid Theory'', Oxford University Press, 1992. &lt;br /&gt;
&lt;br /&gt;
[5] A. Recski, ''Matroid Theory and Its Applications in Electric Network Theory and in Statics'', Springer-Verlag, 1989. &lt;br /&gt;
&lt;br /&gt;
[6] D. J. A. Welsh, ''Matroid Theory'', Academic Press, 1976.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%9E%E3%83%83%E3%83%81%E3%83%B3%E3%82%B0%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4793</id>
		<title>《マッチング問題》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%9E%E3%83%83%E3%83%81%E3%83%B3%E3%82%B0%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4793"/>
		<updated>2007-07-15T05:40:28Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【まっちんぐもんだい (matching problems)】'''&lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;G = (V, A)\, &amp;lt;/math&amp;gt; を無向グラフとする.  &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; の[[マッチング]] (matching) とは, 端点を共有しない枝の集合 &amp;lt;math&amp;gt;M \subseteq A\, &amp;lt;/math&amp;gt; のことである.  &amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt; 本の枝からなるマッチングを &amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-マッチングと呼び, 特に &amp;lt;math&amp;gt;k = |V|/2\, &amp;lt;/math&amp;gt; のときは完全マッチングと呼ぶ.  与えられた目的に従ってマッチングを選ぶ問題のことを, [[マッチング問題]]という. 以下, 幾つかのマッチング問題について簡単に説明する. &lt;br /&gt;
&lt;br /&gt;
'''(a) 最大マッチング問題'''　枝数が最大のマッチングを求める問題を, 最大マッチング問題という. マッチング &amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt; に対し, 長さが奇数の道 &amp;lt;math&amp;gt;P =(a_1, a_2, \cdots, a_{2k+1})\, &amp;lt;/math&amp;gt; が, 条件 &amp;lt;math&amp;gt;a_i \in A\setminus M\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(\forall i:\, &amp;lt;/math&amp;gt; 奇数),  &amp;lt;math&amp;gt;a_i \in M\, &amp;lt;/math&amp;gt;　&amp;lt;math&amp;gt;(\forall i:\, &amp;lt;/math&amp;gt; 偶数&amp;lt;math&amp;gt;)\, &amp;lt;/math&amp;gt; を満たし、道&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;の始点と終点が&amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt;の端点でないとき, &amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt; に関する増加道と呼ばれる. 増加道に関して, 以下の性質が成り立つ: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*マッチング &amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt; 及び &amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt; に関する増加道 &amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt; に対し, 枝集合 &amp;lt;math&amp;gt;(M \setminus P) \cup (P \setminus M)\, &amp;lt;/math&amp;gt; は枝数 &amp;lt;math&amp;gt;|M| + 1\, &amp;lt;/math&amp;gt; のマッチングである. &lt;br /&gt;
 &lt;br /&gt;
*&amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt; は最大マッチング &amp;lt;math&amp;gt;\iff M\, &amp;lt;/math&amp;gt; に関する増加道が存在しない. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　従って, 枝数 0 のマッチングからはじめ, 各反復では, 増加道を求めてマッチングの枝数を増やしていくことで, 最大マッチングが求められる.  &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; が2部グラフの場合には, 増加道の存在判定及び検出が容易に実行できるのに対し, 一般のグラフの場合には多少工夫を要する． いずれの場合も多項式時間で最大マッチングを求めることができる. &lt;br /&gt;
&lt;br /&gt;
　点集合 &amp;lt;math&amp;gt;U \subseteq V\, &amp;lt;/math&amp;gt; に対して, 任意の枝 &amp;lt;math&amp;gt;a \in A\, &amp;lt;/math&amp;gt; の端点のうち少なくとも一方が &amp;lt;math&amp;gt;U\, &amp;lt;/math&amp;gt; に含まれるとき, &amp;lt;math&amp;gt;U\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; の[[被覆 (グラフ理論における)|被覆]] と呼ばれる. 任意のマッチング &amp;lt;math&amp;gt;M \subseteq A\, &amp;lt;/math&amp;gt; と任意の被覆 &amp;lt;math&amp;gt;U \subseteq V\, &amp;lt;/math&amp;gt; に対して, 不等式 &amp;lt;math&amp;gt;|M| \leq |U|\, &amp;lt;/math&amp;gt; が成り立つ.  特に, &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; が2部グラフならば, 最大マッチングの枝数と最小被覆の点数は等しい:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\max\{|M| \mid M: G\, &amp;lt;/math&amp;gt; のマッチング&amp;lt;math&amp;gt;\} = \min\{|U| \mid U: G\, &amp;lt;/math&amp;gt; の被覆&amp;lt;math&amp;gt;\}.\, &amp;lt;/math&amp;gt;　　&amp;lt;math&amp;gt;(1)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
これを, 2部グラフに関する[[最大マッチング最小被覆定理]]という. &lt;br /&gt;
&lt;br /&gt;
　一般のグラフの場合, 式(1)は成り立つとは限らないが，成り立つようにその右辺を修正することができる．奇数個の点からなる点集合の族を &amp;lt;math&amp;gt;{\mathcal U} = \{U_1, U_2, \cdots, U_k\}\, &amp;lt;/math&amp;gt; とする. 任意の枝 &amp;lt;math&amp;gt;a \in A\, &amp;lt;/math&amp;gt; に対して, 以下の条件 (i) または (ii) が成り立つとき, &amp;lt;math&amp;gt;\mathcal U\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; の奇被覆と呼ぶ:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mbox{(i)} \quad |U_i| = 1\, &amp;lt;/math&amp;gt; なる &amp;lt;math&amp;gt;U_i\, &amp;lt;/math&amp;gt; が存在して, &amp;lt;math&amp;gt;a\, &amp;lt;/math&amp;gt; の一方の端点が &amp;lt;math&amp;gt;U_i\, &amp;lt;/math&amp;gt; に含まれる. &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mbox{(ii)} \quad|U_i| &amp;gt; 1\, &amp;lt;/math&amp;gt; なる &amp;lt;math&amp;gt;U_i\, &amp;lt;/math&amp;gt; が存在して, &amp;lt;math&amp;gt;a\, &amp;lt;/math&amp;gt; の両端点が &amp;lt;math&amp;gt;U_i\, &amp;lt;/math&amp;gt; に含まれる.&lt;br /&gt;
&lt;br /&gt;
各 &amp;lt;math&amp;gt;U \in \mathcal U\, &amp;lt;/math&amp;gt; に対し, &amp;lt;math&amp;gt;c(U)\, &amp;lt;/math&amp;gt; を, &amp;lt;math&amp;gt;|U| = 1\, &amp;lt;/math&amp;gt; ならば &amp;lt;math&amp;gt;c(U) = 1, |U| &amp;gt; 1\, &amp;lt;/math&amp;gt; ならば &amp;lt;math&amp;gt;c(U) = (|U| - 1)/2\, &amp;lt;/math&amp;gt;, と定める.  このとき, 次の最大・最小定理が成り立つ:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\textstyle  \max\{|M| \mid M: G\, &amp;lt;/math&amp;gt; のマッチング &amp;lt;math&amp;gt;\textstyle \} = \min\{{\sum}_{U \in {\mathcal U}} c(U) \mid {\mathcal U}: G\, &amp;lt;/math&amp;gt; の奇被覆&amp;lt;math&amp;gt;\}.\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
　2部グラフ &amp;lt;math&amp;gt;G = (V^+, V^-; A)\, &amp;lt;/math&amp;gt; において, &amp;lt;math&amp;gt;|M| = |V^+|\, &amp;lt;/math&amp;gt;であるマッチング &amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt; を, 左側端点集合 &amp;lt;math&amp;gt;V^+\, &amp;lt;/math&amp;gt; に関する完全マッチングという.  左側端点集合 &amp;lt;math&amp;gt;V^+\, &amp;lt;/math&amp;gt; に関する完全マッチングが存在するための必要十分条件は次のように書ける:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;|U^+| \leq |\{v \in V^- \mid \ u \in U^+, (u, v) \in A\}| \qquad&lt;br /&gt;
(\forall U^+ \subseteq V^+).&lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
これを, [[ホールの定理]] (Hall's theorem) と呼ぶ. &lt;br /&gt;
&lt;br /&gt;
　最小被覆族の構造に基づいた2部グラフの分解として[[ダルメジ・メンデルゾーン分解]] (Dulmage-Mendelsohn decomposition) が知られている. 略してDM分解と呼ばれる. この分解は, 与えられた2部グラフを, 半順序構造を有する部分グラフの族へと一意的に分解する.  DM 分解は, 連立一次方程式を解く際にも有用である. 係数行列に関連する2部グラフのDM分解を用いて係数行列のブロック三角化が出来, これにより計算時間を削減することができる.&lt;br /&gt;
&lt;br /&gt;
'''(b) 最大重みマッチング問題'''　無向グラフ &amp;lt;math&amp;gt;G = (V, A)\, &amp;lt;/math&amp;gt; 及び各枝 &amp;lt;math&amp;gt;a \in A\, &amp;lt;/math&amp;gt; の重み &amp;lt;math&amp;gt;w(a) \in \mathbf{R}\, &amp;lt;/math&amp;gt;が与えられたとき, 枝重みの和 &amp;lt;math&amp;gt;\textstyle {\sum}_{a \in M}w(a)\, &amp;lt;/math&amp;gt; を最大にするマッチング &amp;lt;math&amp;gt;M \subseteq A\, &amp;lt;/math&amp;gt; を求める問題を最大重みマッチング問題と呼ぶ.  最大重み&amp;lt;math&amp;gt;k\, &amp;lt;/math&amp;gt;-マッチング問題,  最大重み完全マッチング問題も同様に定義される. ２部グラフにおける最大重み完全マッチング問題は[[割当問題]]　(assignment problem)　とも呼ばれる.&lt;br /&gt;
&lt;br /&gt;
　最大重みマッチングを求めるときも, 最大マッチングと同様に 増加道を用いて繰り返しマッチングの枝数を増やしていき, 最終的に所望のマッチングを求めることができる. その際, 各反復でのマッチングがある種の最適性を満たすように, 増加道をうまく選ぶ必要がある.&lt;br /&gt;
&lt;br /&gt;
　一般のグラフの場合には, まず最大重みマッチング問題を線形計画問題として定式化し, そこから現れる相補性条件を考え,その条件が満たされるように増加道を選ぶ. 特に, &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; が2部グラフの場合は, マッチングの重みの増加量が最大となるように, 各反復において増加道を選べば良い. いずれの場合も, 多項式時間で最大重みマッチングを求めることが出来る.  以上のような主双対算法の他に多くの解法が提案されている．&lt;br /&gt;
&lt;br /&gt;
'''(c) 安定結婚問題'''　2部グラフでのマッチング問題の一種として, [[安定結婚問題]]が挙げられる. 同じ人数の男性と女性が存在して, 各々が異性に対して結婚相手としての選好順序をもつと仮定する. ここで, 男女を全て結婚させること, すなわち男女間の完全マッチングについて考える. 男女間の完全マッチングが与えられたとき, それが安定であるとは, 結婚していない男性と女性の任意の対 &amp;lt;math&amp;gt;(m, f)\, &amp;lt;/math&amp;gt; に対して, &amp;lt;math&amp;gt;m\, &amp;lt;/math&amp;gt; が &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; より現在の結婚相手を好むか, または &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; が &amp;lt;math&amp;gt;m\, &amp;lt;/math&amp;gt; より現在の結婚相手を好むことである.  男女間の安定な完全マッチングを求める問題を安定結婚問題と呼ぶ.&lt;br /&gt;
 &lt;br /&gt;
　安定な完全マッチングは常に存在し, ゲイル・シャプレー(Gale-Shapley) の解法により多項式時間で求められる. この解法では, 各々の男性は1番目に好きな女性から, 2番目に好きな女性, ...と順に, 拒否されたら順位を１つ下げて, 求婚する. 一方, 各々の女性は求婚してきた男性のうち, 最も好きな人との結婚を仮受託し, それ以外の求婚してきた男性を拒否する. この手順を繰り返し, すべての女性が仮受託したら終了であり, 安定な完全マッチングが求められる.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. K. Ahuja, T. L. Magnanti and J. B. Orlin, ''Network Flows: Theory, Algorithms, and Applications'', Prentice Hall, 1993.&lt;br /&gt;
&lt;br /&gt;
[2] W. J. Cook, W. H. Cunningham, W. R. Pulleyblank and A. Schrijver, ''Combinatorial Optimization'',  John Wiley &amp;amp; Sons, 1998.&lt;br /&gt;
&lt;br /&gt;
[3] 藤重悟,『離散数学』, 岩波講座応用数学基礎12, 岩波書店, 1993.&lt;br /&gt;
&lt;br /&gt;
[4] D. Gusfield and R. W. Irving, ''The Stable Marriage Problem: Structure and Algorithms'', MIT Press, 1989.&lt;br /&gt;
&lt;br /&gt;
[5] 伊理正夫, 藤重悟, 大山達雄,『グラフ・ネットワーク・マトロイド』, 産業図書, 1986.&lt;br /&gt;
&lt;br /&gt;
[6] E. L. Lawler, ''Combinatorial Optimization: Networks and Matroids'', Holt, Rinehart and Winston, 1976.&lt;br /&gt;
&lt;br /&gt;
[7] L. Lov&amp;amp;aacute;sz and M. D. Plummer, ''Matching Theory'', North-Holland, 1986.&lt;br /&gt;
&lt;br /&gt;
[8] C. H. Papadimitriou and K. Steiglitz, ''Combinatorial Optimization: Algorithms and Complexity'', Prentice-Hall, 1982.&lt;br /&gt;
&lt;br /&gt;
[9] W. R. Pullyblank, &amp;quot;Matchings and Extensions,&amp;quot; in ''Handbook of Combinatorics, Vol. I'', R. L. Graham, M. Gr&amp;amp;ouml;tschel and L. Lov&amp;amp;aacute;sz, eds., North-Holland, 1995.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%8D%E3%83%83%E3%83%88%E3%83%AF%E3%83%BC%E3%82%AF%E3%83%BB%E3%83%95%E3%83%AD%E3%83%BC%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4792</id>
		<title>《ネットワーク・フロー問題》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%8D%E3%83%83%E3%83%88%E3%83%AF%E3%83%BC%E3%82%AF%E3%83%BB%E3%83%95%E3%83%AD%E3%83%BC%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4792"/>
		<updated>2007-07-15T05:34:56Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ねっとわーくふろーもんだい (network flow problem) 】'''&lt;br /&gt;
&lt;br /&gt;
　ネットワーク上のモノの流れを扱う．モノは与えられた有向グラフ&amp;lt;math&amp;gt;G=(V, A)\, &amp;lt;/math&amp;gt;の各枝に沿って流れ，点で分岐や合流をする．ただし，各枝&amp;lt;math&amp;gt;a\, &amp;lt;/math&amp;gt;の容量&amp;lt;math&amp;gt;c(a)\, &amp;lt;/math&amp;gt;を超えず，各点&amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;から出る正味の流量が，与えられた供給量&amp;lt;math&amp;gt;d(v)\, &amp;lt;/math&amp;gt;と等しくなるようにする．枝aを流れる量を&amp;lt;math&amp;gt;\varphi(a)\, &amp;lt;/math&amp;gt;としたとき，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''容量制約'''　&amp;lt;math&amp;gt;0 \leq \varphi(a) \leq c(a) \; \;   (a \in A)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''流量保存則'''　&amp;lt;math&amp;gt;{\sum}_{a \in \delta^+v} \varphi(a)-{\sum}_{a \in \delta^-v}&lt;br /&gt;
\varphi(a)=d(v)&lt;br /&gt;
\; \;  (v \in V)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を満たす&amp;lt;math&amp;gt;\varphi\, &amp;lt;/math&amp;gt;をフローといい，フローを扱った最適化問題を[[ネットワークフロー問題]]という [1] ．ただし，&amp;lt;math&amp;gt;\delta^+v (\delta^-v)\, &amp;lt;/math&amp;gt;は点&amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;から出る (へ入る) 枝の全体を表す．&lt;br /&gt;
　代表的なネットワーク・フロー問題に最大フロー問題がある．最大フロー問題とは，特別な点として入口&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;と出口&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;があり，&amp;lt;math&amp;gt;s, t\, &amp;lt;/math&amp;gt;以外での供給量&amp;lt;math&amp;gt;d(v)\, &amp;lt;/math&amp;gt;が0であるとき，&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から入る量 (フロー値) を最大にするようなフロー (最大フロー) を求める問題であり，以下のように定式化できる．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{lll}&lt;br /&gt;
\mbox{maximize}  &amp;amp; {\sum}_{a \in \delta^+ s} \varphi(a)-{\sum}_{a \in \delta^-&lt;br /&gt;
s}\varphi(a) \\&lt;br /&gt;
\mbox{subject to}&amp;amp; 0 \leq \varphi(a) \leq c(a) &amp;amp;  (a \in A), \\&lt;br /&gt;
                 &amp;amp;  {\sum}_{e \in \delta^+v} \varphi(a)-{\sum}_{e \in \delta^-v}&lt;br /&gt;
\varphi(a)=0 &amp;amp;&lt;br /&gt;
                 (v \in V \setminus\{s, t \}).&lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　点の部分集合&amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;が&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;を含み，&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;を含まないとき，&amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;s-t\, &amp;lt;/math&amp;gt;カットという．始点が&amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;にあり終点が&amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;にない枝の容量の和を&amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;の容量といい，容量最小の&amp;lt;math&amp;gt;s-t\, &amp;lt;/math&amp;gt;カットを最小カットという．任意のフローのフロー値は任意の&amp;lt;math&amp;gt;s-t\, &amp;lt;/math&amp;gt;カットの容量よりも大きくなり得ない．この値が一致するようなフローと&amp;lt;math&amp;gt;s-t\, &amp;lt;/math&amp;gt;カットが存在することを示したのが，[[最大フロー最小カット定理]]  [2] である．実際，ある&amp;lt;math&amp;gt;s-t\, &amp;lt;/math&amp;gt;カットの容量に一致するフロー値をもつフローが以下の操作で得られる．&lt;br /&gt;
&lt;br /&gt;
　まず，任意のフロー&amp;lt;math&amp;gt;\varphi\, &amp;lt;/math&amp;gt;に対し，補助ネットワーク&amp;lt;math&amp;gt;{\mathcal N}_\varphi=(G_\varphi=(V, A_\varphi), c_\varphi)\, &amp;lt;/math&amp;gt;を定義する．&amp;lt;math&amp;gt;G_\varphi\, &amp;lt;/math&amp;gt;は，与えられたグラフと同じ点集合&amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;をもち，枝集合が&amp;lt;math&amp;gt;A_\varphi=\{a \mid a \in A, \varphi(a) &amp;lt; c(a) \}\cup \{\bar{a} \mid a \in A, \varphi(a)&amp;gt;0 \}\, &amp;lt;/math&amp;gt;のグラフとする．ただし，&amp;lt;math&amp;gt;\bar{a}\, &amp;lt;/math&amp;gt;は，枝&amp;lt;math&amp;gt;a\, &amp;lt;/math&amp;gt;の向きを逆にした枝である．&amp;lt;math&amp;gt;c_\varphi\, &amp;lt;/math&amp;gt;は，&amp;lt;math&amp;gt;A_\varphi\, &amp;lt;/math&amp;gt;の枝に定義される残余容量であり，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;c_\varphi(a)=\left\{ \begin{array}{ll}&lt;br /&gt;
c(a)-\varphi(a) &amp;amp; (a \in A) \\ \varphi(\bar{a}) &amp;amp; (\bar{a} \in A)&lt;br /&gt;
\end{array} \right.\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で与えられる．補助ネットワーク上の&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;への有向道を増加道という．増加道に沿ってフローの更新を繰り返し，フロー値を増加させる方法を増加道法という．任意のフローから始め，以下の手順を繰り返す．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''手順1:''' &amp;lt;math&amp;gt;{\mathcal N}_\varphi\, &amp;lt;/math&amp;gt;を作成し，増加道&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;をみつける．増加道がなければ終了．&lt;br /&gt;
&lt;br /&gt;
'''手順2:''' &amp;lt;math&amp;gt;\varepsilon=\min\{c_\varphi(a) \mid a\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;上の枝&amp;lt;math&amp;gt;\}\, &amp;lt;/math&amp;gt;を求め，&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;上のすべての枝&amp;lt;math&amp;gt;a\, &amp;lt;/math&amp;gt;に関して，&amp;lt;math&amp;gt;a \in A\, &amp;lt;/math&amp;gt;ならば，&amp;lt;math&amp;gt;\varphi(a)\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;\varepsilon\, &amp;lt;/math&amp;gt;増加し，&amp;lt;math&amp;gt;\bar{a} \in A\, &amp;lt;/math&amp;gt;ならば，&amp;lt;math&amp;gt;\varphi(a)\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;\varepsilon\, &amp;lt;/math&amp;gt;減少させる．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　増加道が存在しなくなったとき，&amp;lt;math&amp;gt;{\mathcal N}_\varphi\, &amp;lt;/math&amp;gt;上で&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から到達可能な点集合を&amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;とすると，&amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;s-t\, &amp;lt;/math&amp;gt;カットであり，その容量はフロー値と一致する．よって，増加道法が終了したときのフローが最大フローであり，&amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;が最小カットである．&lt;br /&gt;
&lt;br /&gt;
　増加道の選択を，枝数最小や，&amp;lt;math&amp;gt;\varepsilon\, &amp;lt;/math&amp;gt;最小の基準で行うと，多項式時間の[[最大フローアルゴリズム]]となる．一方，流量保存則を緩和したプリフローを用い，増加道が存在しないようなプリフローを維持しながら，最大フローを求めるプッシュ・再ラベル法も効率よい最大フロー・アルゴリズムである．&lt;br /&gt;
&lt;br /&gt;
　[[最小費用フロー問題]]もネットワーク・フロー問題の一つである．各枝&amp;lt;math&amp;gt;a\, &amp;lt;/math&amp;gt;のフロー1単位あたりの費用&amp;lt;math&amp;gt;\gamma(a)\, &amp;lt;/math&amp;gt;が与えられているとき，総費用&amp;lt;math&amp;gt;\textstyle {\sum}_{a \in A}\gamma(a)\varphi(a)\, &amp;lt;/math&amp;gt;を最小にするフローを求める問題である．特に，すべての点で供給量&amp;lt;math&amp;gt;d(v)=0\, &amp;lt;/math&amp;gt;のとき，[[循環フロー]]という．また，[[輸送問題]]も最小費用フロー問題の特殊ケースである．複数の供給地と需要地があり，各々の供給/需要量と，各供給地と需要地間の輸送費用がわかっているとき，供給/需要を満たし，輸送にかかる総費用を最小とする輸送方法とその輸送量を決定する輸送問題は，容量制約のない2部グラフ上の最小費用フロー問題である．&lt;br /&gt;
　最小費用フロー・アルゴリズムも多数ある．補助ネットワーク&amp;lt;math&amp;gt;{\mathcal N}_\varphi\, &amp;lt;/math&amp;gt;上の費用を&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\gamma_\varphi(a)=\left\{ \begin{array}{ll}&lt;br /&gt;
\gamma(a) &amp;amp; (a \in A) \\ -\gamma(\bar{a}) &amp;amp; (\bar{a} \in A)&lt;br /&gt;
\end{array} \right. &lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で定義すると，フローが最小費用である必要十分条件は，その補助ネットワーク上に負の費用の閉路が存在しないことである．補助ネットワーク上の負の費用の閉路を繰り返し除去することによって最適フローを求めるのが負閉路消去法である．この他にも，点に対応する双対変数を与え，相補スラック条件を満たす枝からなるネットワーク上で最大フロー問題を繰り返し解く方法，最短路問題を繰り返し解く方法，単体法を用いたネットワーク単体法などがある．いずれの方法も強多項式時間アルゴリズムが存在する．&lt;br /&gt;
&lt;br /&gt;
　最大フロー問題，最小費用フロー問題ともに，容量，供給量が整数で与えられているときには，整数値の最適フローが存在することが知られている．また，ネットワークの構造を用いた効率よいアルゴリズムがいくつか存在する．一方，１つのネットワーク上に複数品種を流す[[多品種フロー]]問題は，品種ごとに流量保存則が満たされており，かつすべての品種をあわせて容量制約が満たされている多品種フローを扱う．多くのアルゴリズムは線形計画法の手法に基づいている．整数値の多品種フローを求める問題はNP完全である．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. K. Ahuja, T. L. Magnanti and J. B. Orlin, ''Network Flows: Theory, Algorithms, and Applications'', Prentice Hall, 1993.&lt;br /&gt;
&lt;br /&gt;
[2] L. R. Ford, Jr. and D. R. Fulkerson, ''Flows in Networks'', Princeton University Press, 1962.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%9C%80%E5%B0%8F%E6%9C%A8%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4791</id>
		<title>《最小木問題》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%9C%80%E5%B0%8F%E6%9C%A8%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4791"/>
		<updated>2007-07-15T05:31:51Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【さいしょうきもんだい (minimum spanning tree problem) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[無向グラフ]]&amp;lt;math&amp;gt;G=(V,E)\, &amp;lt;/math&amp;gt;の各枝&amp;lt;math&amp;gt;e\in E\, &amp;lt;/math&amp;gt;に実数の重み&amp;lt;math&amp;gt;w(e)\, &amp;lt;/math&amp;gt;が与えられているとする. グラフ&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;上において全点&amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;を点集合とし[[木]]になっている部分グラフを全張木あるいは全域木(spanning tree)と呼ぶ. グラフ&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;上の全張木&amp;lt;math&amp;gt;T=(V,E_T)\, &amp;lt;/math&amp;gt;の重みは, &amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt;上の枝の重みの総和&amp;lt;math&amp;gt;\textstyle {\sum}_{e\in E_T}w(e)\, &amp;lt;/math&amp;gt;で定める. グラフ&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;上において重み最小の全張木を最小木 (minimum spaninng tree) といい, 最小木を求める問題を[[最小木問題]] (minimum spaninng tree problem) という. &lt;br /&gt;
&lt;br /&gt;
　最小木問題は, [[クラスター分析]]やネットワーク・デザインなどの分野で利用されているが, より複雑な問題の子問題として活用されることの多い基本的な問題である([2]). &lt;br /&gt;
&lt;br /&gt;
　グラフ上の問題として基本的である最小木問題がいつ頃から考えられたのかは明らかではない. 分かっている範囲では, 1926年に&amp;lt;math&amp;gt;{Bor\breve{u}vka}\, &amp;lt;/math&amp;gt;が,またそれとは独立に, 1930年にJarn&amp;amp;iacute;kがそれぞれ最小木問題を定式化しそのアルゴリズムを発表している（最小木問題に関する歴史は [4] が詳しい). その後,最小木問題に対する基本的なアルゴリズムとして[[クラスカル法]](Kruskal's algorithm) と[[プリム法]](Prim's algorithm) などが提案された. 現在までに提案されている主な効率的なアルゴリズムはこれらの二つのアルゴリズムのどちらかを基にデータ構造を工夫することによって構築されている([1]). &lt;br /&gt;
&lt;br /&gt;
　クラスカル法は, 1956年に J. B. Kruskal [6] により, またそれとは独立に1957年にH. LobermanとA. Weinbergerにより提案された[[多項式時間アルゴリズム]]である. アルゴリズムの概要は以下のとおりである. クラスカル法では，まず, 枝のない点集合&amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;のみからなる森&amp;lt;math&amp;gt;F=(V,\emptyset\, &amp;lt;/math&amp;gt;)を考え，次に, 閉路が発生しない限り枝の重みが小さい順に一本ずつ森&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;に枝を加えるという操作を繰り返す. 森&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;が全張木になった時点で繰り返しは終了し, 得られた&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;が一つの最小木である. &lt;br /&gt;
&lt;br /&gt;
　一方, プリム法は, 1957年, R. C. Prim [7] によって提案された多項式時間アルゴリズムである(Jarn&amp;amp;iacute;k法と同じ). プリム法では, まず, 任意の１点&amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;のみからなる木&amp;lt;math&amp;gt;T=(\{v\},\emptyset)\, &amp;lt;/math&amp;gt;を考え, 次に, グラフ&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;において現在の木&amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt;の点集合と木以外の点集合を接続する枝集合の中から枝の重みが最も小さい枝とその端点を新たに木&amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt;に加えるという操作を繰り返す. 木&amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt;がグラフ&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;の全張木になった時点で繰り返しは終了し, 得られた&amp;lt;math&amp;gt;T\, &amp;lt;/math&amp;gt;が一つの最小木である. &lt;br /&gt;
&lt;br /&gt;
　どちらのアルゴリズムも候補の枝集合から最小の重みの枝を選びながら最小木を構成していくという点から[[貪欲アルゴリズム]] (greedy algorithm) という種類に分類されるアルゴリズムである. クラスカル法とプリム法の違いは候補の枝集合の構成法にある. プリム法は与えられたグラフの点と枝の接続関係に強く依存したアルゴリズムであって, そのアルゴリズムの構造は最短路問題のダイクストラ法と全く同じである．一方, クラスカル法は，グラフの[[マトロイド]]構造にのみ依存したアルゴリズムであって, マトロイドの最小基問題に対する[[貪欲アルゴリズム]]へと一般化されている．逆に, このような貪欲アルゴリズムが最適解を見出す問題はマトロイド構造を持つことも知られている．&lt;br /&gt;
&lt;br /&gt;
　クラスカル法やプリム法のような貪欲アルゴリズムの考え方を用いたアルゴリズムは[[組合せ最適化]]の分野において数多く見受けられる. この貪欲アルゴリズムの考え方で解ける抽象的な組合せ最適化問題のクラスは[[マトロイド]]最適化問題と呼ばれ, そのクラスが持つ性質はマトロイド理論として組合せ最適化における多くの有用な知見を提供している. &lt;br /&gt;
&lt;br /&gt;
　最小木問題は無向グラフ上において定義された問題であるが, 枝の向きに依存した[[有向グラフ]]上の問題も考えられる. 有向グラフ上での全張木は，根と呼ばれる１点から他の点への有向道がその全張木上に存在するとき有向木 (directed tree) あるいは根つき木 (rooted tree) と呼ばれる. 枝の重みの総和が最小となる有向木を求める問題は無向グラフ上の最小木を求めるほど簡単ではないが, 多項式時間アルゴリズムが存在する. &lt;br /&gt;
&lt;br /&gt;
　最小木問題は重み最小の全張木を求める問題であるが, 「全張木」を「ある与えられた点集合&amp;lt;math&amp;gt;S \subseteq V\, &amp;lt;/math&amp;gt;を連結化する木」と変更してみる. この変更された問題を[[シュタイナー最小木]]問題 (または, シュタイナー木問題) と呼び, その最適解をシュタイナー最小木と呼ぶ. 与えられた無向グラフ&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;の各枝の重みがすべて正である時, シュタイナー木の葉は点集合&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;に属する点となり, 内点は点集合&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;に属さない点（シュタイナー点と呼ばれる）をいくつか含む. &lt;br /&gt;
&lt;br /&gt;
　シュタイナー最小木問題は, &amp;lt;math&amp;gt;S=V\, &amp;lt;/math&amp;gt;の時に最小木問題と同一になり, また, &amp;lt;math&amp;gt;|S|=2\, &amp;lt;/math&amp;gt;かつ&amp;lt;math&amp;gt;w(e)&amp;gt;0\, &amp;lt;/math&amp;gt;の時は[[最短路問題]]と同一になるので, これらの基本的な問題の一般化として捉えることができる. 最小木問題や最短路問題には多項式時間アルゴリズムが存在するが, シュタイナー木問題は[[NP困難]]であることが示され, 多項式時間アルゴリズムの存在は絶望視されている. 問題を解く困難性は[[平面グラフ]]に限定した場合でも, また各枝の重みが等しい場合でも変わらない [3].&lt;br /&gt;
&lt;br /&gt;
　問題を解く困難性はあるが, シュタイナー最小木問題は通信ネットワーク, 電力供給網において顧客を結ぶネットワーク上の問題や施設配置問題などの子問題として多くの応用例を有する. その必要性からシュタイナー最小木問題に対して多くの近似解法が提案されてきている [5]. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. K. Ahuja, T. L. Magnanti and J. B. Orlin, ''Network Flows: Theory, Algorithms, and Applications'', Prentice Hall, New Jersey, 1993.&lt;br /&gt;
&lt;br /&gt;
[2] R. K. Ahuja, T. L. Magnanti and J. B. Orlin, &amp;quot;Applications of Network Optimization,&amp;quot; in ''Network Models'', M. O, Ball, T. L. Magnanti, C. L. Monma and G. L. Nemhauser, eds., North-Holland, 1995.                            &lt;br /&gt;
&lt;br /&gt;
[3] M. R. Garey and D. S. Johnson, ''Computers and Intractability: A Guide to the Theory of NP-completeness'', Freeman, San Francisco,1979.&lt;br /&gt;
&lt;br /&gt;
[4] R. L. Graham and P. Hell, &amp;quot;On the history of minimum spanning tree problem,&amp;quot; ''Annals of the History of Computing'', '''7''' (1985), 43-57.   &lt;br /&gt;
&lt;br /&gt;
[5] F. W. Hwang, D. S. Richards and P. Winter, ''The Steiner Tree problem'', Annals of Discrete Mathematics 53, North-Holland, Amsterdam,1992.&lt;br /&gt;
&lt;br /&gt;
[6] J. B. Kruskal, &amp;quot;On the shortest spanning tree of a graph and the traveling salesman problem,&amp;quot; ''Proceedings of the American Mathematical Society'', '''7''' (1956), 48-50.   &lt;br /&gt;
&lt;br /&gt;
[7] R. C. Prim, &amp;quot;Shortest connection networks and some generalizations,&amp;quot; ''Bell System Technical Journal'', '''36''' (1957), 1389-1401.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%9C%80%E7%9F%AD%E8%B7%AF%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4790</id>
		<title>《最短路問題》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%9C%80%E7%9F%AD%E8%B7%AF%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4790"/>
		<updated>2007-07-15T05:30:44Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【さいたんろもんだい (shortest path problem) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[有向グラフ]]&amp;lt;math&amp;gt;G=(V,A)\, &amp;lt;/math&amp;gt;の各[[枝]]&amp;lt;math&amp;gt;a\in A\, &amp;lt;/math&amp;gt;に長さ&amp;lt;math&amp;gt;l(a)\in \mathbf{R}\, &amp;lt;/math&amp;gt;が付与されている[[ネットワーク]]&amp;lt;math&amp;gt;N=(G=(V,A),l)\, &amp;lt;/math&amp;gt;が与えられているとする. 有向グラフ&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;の任意の2点&amp;lt;math&amp;gt;s,t\in V\, &amp;lt;/math&amp;gt;に対して, 点&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;を始点とし点&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;を終点とする有向道&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;の長さ&amp;lt;math&amp;gt;l(P)\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;上の枝の長さの総和, &amp;lt;math&amp;gt;\textstyle l(P)={\sum}_{a\in P}l(a)\, &amp;lt;/math&amp;gt;, と定める. 始点&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から終点&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;への有向道&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;のなかで, その長さを最小にするもの(が存在すれば, それ)を点&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から点&amp;lt;math&amp;gt;t\, &amp;lt;/math&amp;gt;への最短路(shortest path)といい, 最短路を求める問題を[[最短路問題]] (shortest path problem) という. 与えられたネットワークにおいて負の長さの有向閉路(負閉路と呼ぶ)が存在する場合には一般に最短路は存在しなくなる. ただし，負閉路を持つネットワーク上でも，初等的な（点を繰り返さない）道で最短なものを求める問題を考えることもあるが，一般的には解くことが難しい問題となる．&lt;br /&gt;
&lt;br /&gt;
　最短路問題は[[組合せ最適化問題]]の中での最も基本的かつ重要な問題の一つである. 例えば, [[ナップサック問題]], [[PERT]], [[巡回セールスマン問題]]など様々な組合せ最適化問題が最短路問題とも関係し, 最短路問題において得られた知識はそれらの組合せ最適化問題の解法にも影響を与えている. また, 交通計画や通信ネットワークの分野などでは最短路問題を利用し解析に必要な基本データを算出している. さらに, [[ネットワークフロー問題]], [[配送計画問題]]やネットワークデザインなどのより複雑な問題に対するアルゴリズムにおいて，子問題として最短路問題を解くことがしばしば要求され, その応用は広範囲におよぶ ([2]). &lt;br /&gt;
&lt;br /&gt;
　最短路問題に対して様々なアルゴリズムが提案されている ([1]). それらのアルゴリズムは, それが適用できるネットワークの種類から大きく二つに分類できる. 一つは, 負の長さの枝が存在しても適用できるアルゴリズムで, もう一つは, 負の長さの枝が存在しない時にのみ適用できるアルゴリズムである. &lt;br /&gt;
&lt;br /&gt;
　前者のタイプのアルゴリズムとしては, L. R. Ford [5] とR. E. Bellman [3] によって独立に示された[[ベルマン・フォード法]](Bellman-Ford algorithm)（フォード・ベルマン法ともいう）が良く知られている. この方法では, &amp;lt;math&amp;gt;p(s)=0, p(v)=+\infty\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(v\in V)\, &amp;lt;/math&amp;gt;なる点のラベル&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;を用意して, 枝&amp;lt;math&amp;gt;(u,v)\, &amp;lt;/math&amp;gt;に対して&amp;lt;math&amp;gt;l(u,v)+p(u)&amp;lt;p(v)\, &amp;lt;/math&amp;gt;ならば&amp;lt;math&amp;gt;p(v)\leftarrow l(u,v)+p(u)\, &amp;lt;/math&amp;gt;とおく．ここで，すべての枝に対して１回ずつこの操作を行うことを基本操作として，ラベルの減少が起る限り高々&amp;lt;math&amp;gt;|V|\, &amp;lt;/math&amp;gt;回基本操作を繰り返す．基本操作が&amp;lt;math&amp;gt;|V|\, &amp;lt;/math&amp;gt;回繰り返された場合には負閉路が検出される．そうでない場合には, 終了時に得られたラベル&amp;lt;math&amp;gt;p\, &amp;lt;/math&amp;gt;によって，&amp;lt;math&amp;gt;l(u,v)+p(u)-p(v)=0\, &amp;lt;/math&amp;gt;を満たす枝の全体からなる&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;の部分グラフ中の点&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から各点&amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;への有向道が最短路を与える．なお，ベルマン・フォード法の変種で隣接２点間の距離行列のべき乗と同等と見做される行列演算によって理解されるアルゴリズムとして，べき乗法(power method)も知られている. これらは&amp;lt;math&amp;gt;{\rm O}(|V||A|)\, &amp;lt;/math&amp;gt;時間のアルゴリズムである．&lt;br /&gt;
&lt;br /&gt;
　一方, すべての枝の長さが非負の時に，より高速に最短路を見出すタイプの代表的なアルゴリズムとして, E. W. Dijkstra [4] によって提案された[[ダイクストラ法]] (Dijkstra's algorithm) が知られている.この方法では，出発点&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;からの(最短)距離が小さい順に最短路および(最短)距離が確定していく．初期ラベル&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;はベルマン・フォード法と同じで, アルゴリズム実行中に最短路が確定した点集合を&amp;lt;math&amp;gt;W\, &amp;lt;/math&amp;gt;とすると，&amp;lt;math&amp;gt;p(v)\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(v\in W)\, &amp;lt;/math&amp;gt;は点&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から点&amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;への(最短)距離に等しく, &amp;lt;math&amp;gt;l(u,v)+p(u)-p(v)=0\, &amp;lt;/math&amp;gt;である枝&amp;lt;math&amp;gt;(u,v)\, &amp;lt;/math&amp;gt;を通って&amp;lt;math&amp;gt;W\, &amp;lt;/math&amp;gt;内において点&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から点&amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;へ行く有向道が点&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から点&amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;への最短路である．&amp;lt;math&amp;gt;W\, &amp;lt;/math&amp;gt;内で最後に(最短)距離が確定した点を&amp;lt;math&amp;gt;u\, &amp;lt;/math&amp;gt;として, &amp;lt;math&amp;gt;l(u,v)+p(u)&amp;lt;p(v)\, &amp;lt;/math&amp;gt;なる各点&amp;lt;math&amp;gt;v\in V-W\, &amp;lt;/math&amp;gt;に対し&amp;lt;math&amp;gt;p(v)\leftarrow l(u,v)+p(u)\, &amp;lt;/math&amp;gt;とおき，&amp;lt;math&amp;gt;V-W\, &amp;lt;/math&amp;gt;中でラベルの最小な点&amp;lt;math&amp;gt;v\, &amp;lt;/math&amp;gt;を見つけて&amp;lt;math&amp;gt;W\leftarrow W\cup\{v\}\, &amp;lt;/math&amp;gt;とおく．初期には&amp;lt;math&amp;gt;W=\{s\}\, &amp;lt;/math&amp;gt;である．ダイクストラ法は&amp;lt;math&amp;gt;{\rm O}(|A|+|V|\log|V|)\, &amp;lt;/math&amp;gt;時間のアルゴリズムとして実現可能である．&lt;br /&gt;
&lt;br /&gt;
　ベルマン・フォード法やダイクストラ法など現在提案されている最短路問題に対するアルゴリズムは本質的に始点&amp;lt;math&amp;gt;s\, &amp;lt;/math&amp;gt;から全点までの最短路を同時に求める. 全点間の最短路を求めたい場合には, １点から全点への最短路を求めるアルゴリズムを繰り返し適用し求めればよい．この場合, 負の長さの枝が存在する場合には１点からの最短路問題を１回解いてすべての枝の長さを非負に等価変換することが可能であり, 基本的にダイクストラ法を&amp;lt;math&amp;gt;|V|\, &amp;lt;/math&amp;gt;回適用する手間で解くことができる．なお，全点間最短路問題の&amp;lt;math&amp;gt;{\rm O}((|V|^3)\, &amp;lt;/math&amp;gt;時間のアルゴリズムであるワーシャル・フロイド法 (Warshall-Floyd algorithm) も知られている.&lt;br /&gt;
&lt;br /&gt;
　最短路問題は有向グラフ上で定義されているが, [[無向グラフ]]上の最短路問題を考えたい場合には, 各枝をそれと同じ長さの互いに逆向きの有向枝で置き換えることにより, 有向グラフの場合に帰着することができる．ただし，負の長さの枝が存在する場合は, この帰着によって負閉路が含まれるので, 通常の最短路問題には帰着されない．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] R. K. Ahuja, T. L. Magnanti and J. B. Orlin, ''Network Flows:Theory, Algorithms, and Applications'', Prentice Hall, New Jersey, 1993.&lt;br /&gt;
&lt;br /&gt;
[2] R. K. Ahuja, T. L. Magnanti and J. B. Orlin, &amp;quot;Applications of Network Optimization,&amp;quot; in ''Network Models'', M. O, Ball, T. L. Magnanti, C. L. Monma and G. L. Nemhauser, eds., North-Holland, 1995.                            &lt;br /&gt;
&lt;br /&gt;
[3] R. E. Bellman, &amp;quot;On a Routing Problem,&amp;quot; ''Quarterly of Applied Mathematics'', '''16''' (1958), 87-90. &lt;br /&gt;
&lt;br /&gt;
[4] E. W. Dijkstra, &amp;quot;A note on two problems in connexion with graphs,&amp;quot; ''Numerische Mathematik'', '''1''' (1959), 268-271. &lt;br /&gt;
&lt;br /&gt;
[5] L. R. Ford, Jr., &amp;quot;Network Flow Theory,&amp;quot; Report P-923, Rand Corp., Santa Monica,1956.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%91%E3%83%BC%E3%83%95%E3%82%A7%E3%82%AF%E3%83%88%E3%82%B0%E3%83%A9%E3%83%95%E3%80%8B&amp;diff=4789</id>
		<title>《パーフェクトグラフ》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E3%83%91%E3%83%BC%E3%83%95%E3%82%A7%E3%82%AF%E3%83%88%E3%82%B0%E3%83%A9%E3%83%95%E3%80%8B&amp;diff=4789"/>
		<updated>2007-07-15T05:28:47Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ぱーふぇくとぐらふ (perfect graph) 】'''&lt;br /&gt;
&lt;br /&gt;
　1960年代初頭にベルジュ (C. Berge) は, [[パーフェクトグラフ]] (perfect graph) の概念やそれに関する予想を提案した. 予想の一つ「パーフェクトグラフの補グラフもパーフェクトである」は, 1972年にロバース(L. Lov&amp;amp;aacute;sz) によって解かれた. それよりも強い予想である[[パーフェクトグラフ予想]] (perfect graph conjecture) (後述) は近年ついに証明された [3]. パーフェクトグラフは半正定値計画問題の研究の源流の一つでもあり, 計算の複雑さの観点からも興味深いグラフのクラスである.  パーフェクトグラフに関しては参考文献にあげた図書 [1, 4] が詳しい.  &lt;br /&gt;
&lt;br /&gt;
　与えられたグラフ&amp;lt;math&amp;gt;G=(V,E)\, &amp;lt;/math&amp;gt;に対して, 集合 &amp;lt;math&amp;gt;K \subseteq V\, &amp;lt;/math&amp;gt;の任意の2頂点が隣接しているとき, &amp;lt;math&amp;gt;K\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; のクリーク (clique) とよぶ. 要素数最大のクリークを求める問題を &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; に対する[[最大クリーク問題]] (maximum clique problem) とよぶ. 最大クリークの大きさをクリーク数 (clique number) といい, &amp;lt;math&amp;gt;\omega(G)\, &amp;lt;/math&amp;gt;とかく. さらに, 頂点集合上の整数値重み&amp;lt;math&amp;gt;w = (w_i \mid i \in V) \in Z^V\, &amp;lt;/math&amp;gt;も導入し, 重みの総和を最大とするクリークを求める問題は次のような0-1整数計画問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
   \begin{array}{llll}&lt;br /&gt;
    \mbox{max.}  &amp;amp; \sum_{i \in V} w_ix_i \\&lt;br /&gt;
    \mbox{s. t.} &amp;amp; x_i + x_j \leq 1 &amp;amp; ((i,j) \not\in E), &amp;amp; \qquad (1)\\&lt;br /&gt;
                 &amp;amp; x_i \in \{0,1\}  &amp;amp; (i \in V),&lt;br /&gt;
   \end{array}\, &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
に定式化でき, この最適目的関数値を &amp;lt;math&amp;gt;\omega(G,w)\, &amp;lt;/math&amp;gt; とかく. 明かに &amp;lt;math&amp;gt;\omega(G) = \omega(G,1)\, &amp;lt;/math&amp;gt; である.  クリークと対称的な性質, 任意の2要素が互いに隣接しない集合 &amp;lt;math&amp;gt;S \subseteq V\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; の安定集合 (stable set), あるいは独立集合 (independent set) という.  任意のクリークと安定集合の共通部分は高々1頂点であることを利用すると問題(1)は安定集合全体のなす族&amp;lt;math&amp;gt;{\mathcal S}\, &amp;lt;/math&amp;gt;を用いて次のようにかける.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\begin{array}{llll}&lt;br /&gt;
    \mbox{max.}  &amp;amp; \sum_{i \in V} w_ix_i \\&lt;br /&gt;
    \mbox{s. t.} &amp;amp; \sum_{i\in S}x_i \leq 1 &amp;amp; (S \in {\mathcal S}), &amp;amp; \qquad (2)\\&lt;br /&gt;
                 &amp;amp; x_i \in \{0,1\}  &amp;amp; (i \in V).&lt;br /&gt;
   \end{array}\, &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　グラフ&amp;lt;math&amp;gt;G=(V,E)\, &amp;lt;/math&amp;gt;に対して, 隣接する頂点同士が異なる色になるような彩色の仕方を頂点彩色 (vertex coloring) あるいは単に彩色(coloring)とよぶ. 最小色数の頂点彩色を求める問題を[[グラフ彩色問題]] (graph coloring problem) の一種である頂点彩色問題(vertex coloring problem) とよび, このときの最小色数を彩色数 (coloring number) といい, &amp;lt;math&amp;gt;\chi(G)\, &amp;lt;/math&amp;gt;とかく. 彩色において同色の頂点の集合は安定集合であり, 頂点彩色問題は, &amp;lt;math&amp;gt;V \subseteq S_1 \cup \cdots \cup S_\ell\, &amp;lt;/math&amp;gt;となる安定集合の族&amp;lt;math&amp;gt;\{S_1,\cdots,S_\ell\}\, &amp;lt;/math&amp;gt;で最小のものを求める問題とみなせる. さらに, 頂点集合上の重み&amp;lt;math&amp;gt;w = (w_i \mid i \in V) \in Z^V\, &amp;lt;/math&amp;gt;も導入し&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;   \begin{array}{llll}&lt;br /&gt;
    \mbox{min.}  &amp;amp; \sum_{S \in {\mathcal S}} y_S \\&lt;br /&gt;
    \mbox{s. t.} &amp;amp; \sum_{S \ni i}y_S \geq w_i &amp;amp; (i \in V), &amp;amp; \qquad (3)\\&lt;br /&gt;
                 &amp;amp; y_S \in Z_+ &amp;amp; (S \in {\mathcal S}), &lt;br /&gt;
   \end{array}\, &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
という問題の最適目的関数値を &amp;lt;math&amp;gt;\chi(G,w)\, &amp;lt;/math&amp;gt; とかく(ただし&amp;lt;math&amp;gt;{\mathcal S}\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;の安定集合全体のなす族, &amp;lt;math&amp;gt;Z_+\, &amp;lt;/math&amp;gt;は非負整数全体を表す).  明かに &amp;lt;math&amp;gt;\chi(G,1)\, &amp;lt;/math&amp;gt; は彩色数 &amp;lt;math&amp;gt;\chi(G)\, &amp;lt;/math&amp;gt; と一致する. 問題 (3) の整数条件&amp;lt;math&amp;gt;y_S \in Z_+\, &amp;lt;/math&amp;gt;を非負条件&amp;lt;math&amp;gt;y_S \geq 0\, &amp;lt;/math&amp;gt;に置き換えた線形計画問題は, 問題 (2) の整数条件&amp;lt;math&amp;gt;x_i \in \{0,1\}\, &amp;lt;/math&amp;gt;を非負条件 &amp;lt;math&amp;gt;x_i \geq 0\, &amp;lt;/math&amp;gt; で置き換えた線形計画問題の双対問題である. このことから次の関係が示せる.  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\omega(G,w) \leq \chi(G,w), \quad\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(\, &amp;lt;/math&amp;gt;特別な場合として&amp;lt;math&amp;gt;)\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\quad \omega(G) \leq \chi(G). \qquad (4)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\omega(G) \leq \chi(G)\, &amp;lt;/math&amp;gt; は任意の彩色でクリークの各頂点は異なる色に塗られることより明かであろう. &lt;br /&gt;
 &lt;br /&gt;
　一般のグラフに対する最大クリーク問題や頂点彩色問題のNP困難性が知られている. すなわち, 多くの研究者はこれらの問題に対する多項式時間解法は存在しないと信じている. 不等式 (4) の間に入る量で多項式時間で計算出来るものに[[ロバース数]] (Lov&amp;amp;aacute;sz number)がある. (本来の定義とは異なるが) ロバース数&amp;lt;math&amp;gt;\vartheta(G,w)\, &amp;lt;/math&amp;gt;は&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;3&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\vartheta(G,w) = \max \left\{&lt;br /&gt;
\begin{array}{l} &lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\end{array}\right.&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;3&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\bar{w}^{\top} B \bar{w} \; &lt;br /&gt;
    \begin{array}{|l} &lt;br /&gt;
     \mbox{B:} \\&lt;br /&gt;
     B_{ij} \\&lt;br /&gt;
     \sum_i &lt;br /&gt;
    \end{array} \quad&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;対称半正定値行列&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;3&amp;quot;&amp;gt;&amp;lt;math&amp;gt; \left.&lt;br /&gt;
\begin{array}{l} &lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\\&lt;br /&gt;
\end{array} \right\}, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td rowspan=&amp;quot;3&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\bar{w}= \left( \begin{array}{c}\sqrt{w_1}\\ \vdots\\ \sqrt{w_n}&lt;br /&gt;
                \end{array} \right)\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td rowspan=&amp;quot;3&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\quad (5)\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;= 0 \;((i,j) \in E)\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;B_{ii}= 1\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と定義される. &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;の補グラフを&amp;lt;math&amp;gt;\overline{G}\, &amp;lt;/math&amp;gt;と表すと, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\omega(G,w) \leq \vartheta(\overline{G},w) \leq \chi(G,w) \qquad (6)\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が成立する. グレッチェル (M. Gr&amp;amp;ouml;tschel), ロバースとシュライバー (A. Schrijver) は楕円体法でロバース数を多項式時間で求められることを示した. また (5) は半正定値計画問題なので, 半正定値計画問題に対する多項式時間解法でロバース数を求めることができる.&lt;br /&gt;
  &lt;br /&gt;
　グラフ&amp;lt;math&amp;gt;G=(V,E)\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;U \subseteq V\, &amp;lt;/math&amp;gt;に対して, 頂点集合を&amp;lt;math&amp;gt;U\, &amp;lt;/math&amp;gt;とし, 両端点が&amp;lt;math&amp;gt;U\, &amp;lt;/math&amp;gt;に含まれる辺全体を辺集合とする&amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;の部分グラフを, &amp;lt;math&amp;gt;U\, &amp;lt;/math&amp;gt;に誘導される頂点誘導部分グラフとよぶ. &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;のすべての頂点誘導部分グラフ&amp;lt;math&amp;gt;G'\, &amp;lt;/math&amp;gt;に対して &amp;lt;math&amp;gt;\omega(G') = \chi(G')\, &amp;lt;/math&amp;gt; を満たすグラフを[[パーフェクトグラフ]] (perfect graph) という. パーフェクトグラフを特徴付ける性質として次のようなものがある.  &lt;br /&gt;
&lt;br /&gt;
(a) 補グラフがパーフェクト, &lt;br /&gt;
&lt;br /&gt;
(b) 任意の重みベクトル&amp;lt;math&amp;gt;w=(w_i \in Z_+ \mid i \in V)\, &amp;lt;/math&amp;gt;に対して &amp;lt;math&amp;gt;\omega(G,w) = \chi(G,w)\, &amp;lt;/math&amp;gt;, &lt;br /&gt;
&lt;br /&gt;
(c) &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;のクリークの特性ベクトル全体の凸包が,  非負条件と問題 (2) の安定集合による不等式で表現できる, &lt;br /&gt;
&lt;br /&gt;
(d) &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;の任意の頂点誘導部分グラフ&amp;lt;math&amp;gt;G'\, &amp;lt;/math&amp;gt;に対して &amp;lt;math&amp;gt;\alpha(G')\cdot\omega(G') \geq |V(G')|\, &amp;lt;/math&amp;gt; が成立する, ただし&amp;lt;math&amp;gt;\alpha(G')\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;G'\, &amp;lt;/math&amp;gt;の最大安定集合の要素数, &amp;lt;math&amp;gt;V(G')\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;G'\, &amp;lt;/math&amp;gt;の頂点集合を表す, &lt;br /&gt;
&lt;br /&gt;
(e) 頂点誘導部分グラフとして長さ5以上の奇ホールもその補グラフも含まない. &lt;br /&gt;
&lt;br /&gt;
　(a) と (b) よりパーフェクトグラフに対して (6) は等号で成り立ち, 補グラフのロバース数を求めることで最大クリーク問題や頂点彩色問題が多項式時間で解けることが分かる. (c) は凸多面体を用いた特徴付けを与えている. (d) はロバースの与えた特徴付けで, この特徴付けより, 与えられたグラフがパーフェクトであるかの判定問題はco-NPに属する事が導かれる. この判定問題は多項式時間で解くことができる [2] (e) がパーフェクトグラフ予想と呼ばれていたものであり, 論文 [3] において証明され, 現在は強パーフェクトグラフ定理 (Strong Perfect Graph Theorem) と呼ばれる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] J. L. Ram&amp;amp;iacute;rez-Alfons&amp;amp;iacute;n and B. A. Reed, eds., ''Perfect Graphs'', John Wiley &amp;amp; Sons, 2001.&lt;br /&gt;
&lt;br /&gt;
[2] M. Chudnovsky, G. Cornu&amp;amp;eacute;jols, X. Liu, P. Seymour and K. Vuskovic, &amp;quot;Recognizing Berge Graphs,&amp;quot; ''Combinatorica'', '''25''' (2005), 143-186.&lt;br /&gt;
&lt;br /&gt;
[3] M. Chudnovsky, N. Robertson, P. Seymour and R. Thomas, &amp;quot;The Strong Perfect Graph Theorem,&amp;quot; ''Ann. of Math''., '''164''' (2006), 51-229.&lt;br /&gt;
&lt;br /&gt;
[4] M. Gr&amp;amp;ouml;tschel, L. Lov&amp;amp;aacute;sz and A. Schrijver, ''Geometric Algorithms and Combinatorial Optimization'', Springer-Verlag, 1988.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%9A%E9%9D%A2%E4%BD%93%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=4788</id>
		<title>《多面体理論》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%9A%E9%9D%A2%E4%BD%93%E7%90%86%E8%AB%96%E3%80%8B&amp;diff=4788"/>
		<updated>2007-07-15T05:00:18Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【ためんたいりろん (polyhedral theory) 】'''&lt;br /&gt;
&lt;br /&gt;
　[[多面体理論]] (polyhedral theory) には, 見方, 切り口によって様々な理論体系が存在する. 第一に, 古代ギリシャ時代より研究されているプラトンの正多面体, アルキメデスの準正多面体などを代表例として挙げられる古典的正多面体理論. これらの多面体は, 見た目が美しいだけでなく, 群論, 整数論, 組合せ理論など諸々の美しい数学的構造をも内包している. 詳しい内容については, 文献 [2, 1] を参照されたい. &lt;br /&gt;
&lt;br /&gt;
　上述の多面体理論は, 2次元或いは3次元に限定されたものである. 近年の3次元多面体に関する新たな成果として, 3次元多面体の展開図に関するものがある. 多くの読者が, 立方体 (さいころ)の展開図を厚紙に描いて切り取り, 組み立てた経験があろう. このように紙一枚に描いて切り取り, 組み立てが可能な (面どうしが重なり合わない) 図形を展開図, 英語表記では net という. 3次元正多面体には net が存在することが知られているが, 任意の3次元多面体については, 必ず net が存在するかどうかは, 未解決問題の一つである. この未解決問題に対して, 理論的, 実験的に考察を与えている文献が [7] である. 3次元多面体の辺をどのように切ったら net ができるのかを多くの種類の3次元多面体に関して考察した興味ある文献であり, また, net of polyhedron に関する参考文献リストも充実しているので, 興味ある読者は是非参照されたい. &lt;br /&gt;
&lt;br /&gt;
　さて, オペレーションズ・リサーチの分野において, 多大な貢献をしている多面体理論は, より一般的 (正多面体に限らないという意) かつ高次元の凸多面体 (covex polyhedron) に関するものである. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元ユークリッド空間の閉半空間 (closed half space) とは, 与えられた &amp;lt;math&amp;gt;\boldsymbol{a} \in \mathbf{R}^d, b \in \mathbf{R}\, &amp;lt;/math&amp;gt; に対して&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\{\boldsymbol{x} \in \mathbf{R}^d \mid &lt;br /&gt;
\boldsymbol{a}\boldsymbol{x} \leq b \}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で表される集合のことである. 凸多面体 (convex polyhedron) &amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;とは, 有限個の閉半空間の共通部分, すなわち&amp;lt;math&amp;gt;m \times d\, &amp;lt;/math&amp;gt;行列&amp;lt;math&amp;gt;\boldsymbol{A}\, &amp;lt;/math&amp;gt;および, &amp;lt;math&amp;gt;m\, &amp;lt;/math&amp;gt;次元ベクトル&amp;lt;math&amp;gt;\boldsymbol{b}\, &amp;lt;/math&amp;gt;を用いて, 次のような線形不等式システムを満たすベクトルの集合として定義される. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;P = \{ \boldsymbol{x} \in \mathbf{R}^d \mid&lt;br /&gt;
   \boldsymbol{A} \boldsymbol{x} \leq \boldsymbol{b}\}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
また, 凸多面体 &amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt; の別の表現として, 次のものが挙げられる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;P = \{\boldsymbol{x} + \boldsymbol{y} \mid&lt;br /&gt;
\boldsymbol{x} \in \mbox{conv}\{\boldsymbol{x}^1,&lt;br /&gt;
\boldsymbol{x}^2, \ldots , \boldsymbol{x}^k\}, \; &lt;br /&gt;
\boldsymbol{y} \in \mbox{cone}\{\boldsymbol{y}^1,&lt;br /&gt;
\boldsymbol{y}^2, \ldots , \boldsymbol{y}^l\} \}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
但し, &amp;lt;math&amp;gt;\mbox{conv}\{\cdots\}\, &amp;lt;/math&amp;gt;は有限個の点集合からなる凸包, &amp;lt;math&amp;gt;\mbox{cone}\{\cdots\}\, &amp;lt;/math&amp;gt;は有限個のベクトルからなる凸錘を表し, 数学的には以下のように記述される. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle \mbox{conv}\{\boldsymbol{x}^1,&lt;br /&gt;
\boldsymbol{x}^2,\ldots,\boldsymbol{x}^k\} &lt;br /&gt;
  = \{\boldsymbol{x} \mid \boldsymbol{x}&lt;br /&gt;
  = \alpha_1 \boldsymbol{x}^1 + \alpha_2 \boldsymbol{x}^2&lt;br /&gt;
  + \cdots + \alpha_k \boldsymbol{x}^k, \;&lt;br /&gt;
  \sum_{i=1}^{k}{\alpha_i} = 1, \alpha_i \geq 0\}&amp;lt;/math&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;math&amp;gt;\mbox{cone}\{\boldsymbol{y}^1,\boldsymbol{y}^2,&lt;br /&gt;
  \ldots,\boldsymbol{y}^l\} &lt;br /&gt;
  = \{\boldsymbol{y} \mid \boldsymbol{y} &lt;br /&gt;
  = \beta_1 \boldsymbol{y}^1 + \beta_2 \boldsymbol{y}^2&lt;br /&gt;
  + \cdots + \beta_l \boldsymbol{y}^l,&lt;br /&gt;
  \beta_i \geq 0\}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
凸錘の部分が空集合であるような多面体を有界凸多面体といい, 英語では convex polytope と区別する. 重要なことは, 同じ凸多面体&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;を記述するのに2通りあり, 一方は可算有限個の線形不等式の共通部分と表せ, 他方は加算有限個の点の凸包内の点と可算有限個のベクトルによる凸錘内のベクトルの和として表せることである. 可算有限個という条件を除けば, 2次元平面上の円や3次元空間内の球でさえ凸多面体として定義されうることを注意しておきたい. &lt;br /&gt;
&lt;br /&gt;
　上述のように定義された一般の凸多面体の構造は, 記述が単純でありながら解析が非常に困難であるため, 特殊な凸多面体である[[整数多面体]]や, 凸多面体を特徴付ける[[全ユニモジュラ性]], [[全双対整数性]] ([[TDI性]]) 等の性質が研究されており, 整数計画, 組合せ最適化問題の解法等に大きく貢献している [8]. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元凸多面体, &amp;lt;math&amp;gt;\boldsymbol{a} \in \mathbf{R}^d\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;b \in \mathbf{R}\, &amp;lt;/math&amp;gt;とする. 任意の&amp;lt;math&amp;gt;\boldsymbol{x} \in P\, &amp;lt;/math&amp;gt;に対して, &amp;lt;math&amp;gt;\boldsymbol{a x} \leq b\, &amp;lt;/math&amp;gt;が成り立つとき, &amp;lt;math&amp;gt;\boldsymbol{a x} \leq b\, &amp;lt;/math&amp;gt;を凸多面体&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;の妥当不等式 (valid inequality) という. 凸多面体&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;の部分集合&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;が&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;のフェイス (face) であるとは, 妥当不等式&amp;lt;math&amp;gt;\boldsymbol{a x} \leq b\, &amp;lt;/math&amp;gt;が存在し, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;F = P \cap \{\boldsymbol{x} \in \mathbf{R}^d \mid &lt;br /&gt;
   \boldsymbol{a} \boldsymbol{x} = b\}\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が成り立つことである. &amp;lt;math&amp;gt;X =\{\boldsymbol{x}^1,\ldots,\boldsymbol{x}^m\} (\subseteq \mathbf{R}^d)\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元空間の&amp;lt;math&amp;gt;m\, &amp;lt;/math&amp;gt;個の点集合としたとき, &amp;lt;math&amp;gt;X\, &amp;lt;/math&amp;gt;がアフィン独立 (affinely independent) であるとは, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\displaystyle &lt;br /&gt;
 \sum_{i=1}^{m}\lambda_i \boldsymbol{x}^i = 0,&lt;br /&gt;
\sum_{i=1}^{m}\lambda_i =0&lt;br /&gt;
  \Longrightarrow \lambda_i = 0 \mbox{ for } i=1,\ldots,m\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が成り立つことである. このようにアフィン独立性を定義すると, 多面体のフェイス&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;の次元&amp;lt;math&amp;gt;\mbox{dim}(F)\, &amp;lt;/math&amp;gt;が次のように定義できる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mbox{dim}(F) := (F\, &amp;lt;/math&amp;gt;に含まれる極大なアフィン独立の点集合の数&amp;lt;math&amp;gt;)-1\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
次元&amp;lt;math&amp;gt;0,1, \mbox{dim}(P)-1\, &amp;lt;/math&amp;gt;のフェイスをそれぞれ頂点 (vertex) 或いは端点 (extreme point), 辺 (edge), ファセット (facet) とよぶ.  凸多面体&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;のファセットを構成する妥当不等式を, [[ファセット制約]] (facet constraints) という. &lt;br /&gt;
&lt;br /&gt;
　2つの端点が一つの辺を共有しているときその端点は隣接しているという. 有界な&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元凸多面体&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;の端点とその隣接関係を表すグラフ構造を, 多面体グラフという. 2つの端点の最短路とは, 辺の長さを1とした場合のグラフ上で最短路をいう. &amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;の直径 (diameter) とは, 最短路が最も長くなるような2端点間の最短路の長さのことである. この有界凸多面体の直径に関する研究は, 端点を逐一探索していく線形計画問題における単体法の計算効率を考える意味でも重要である. 以下, 証明はされていないが凸多面体の直径&amp;lt;math&amp;gt;\delta\, &amp;lt;/math&amp;gt;に関する有名な予想を記しておこう. &lt;br /&gt;
&lt;br /&gt;
:任意の&amp;lt;math&amp;gt;d\, &amp;lt;/math&amp;gt;次元, 有界凸多面体&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;において, ファセットの数を&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;とすると&amp;lt;math&amp;gt;P\, &amp;lt;/math&amp;gt;の直径 &amp;lt;math&amp;gt;\delta\, &amp;lt;/math&amp;gt; は, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\delta \leq f - d\, &amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:である. &lt;br /&gt;
&lt;br /&gt;
これは Hirsch の予想と呼ばれ, 一部特殊な多面体では証明されているが [5], 多面体理論における大きな未解決問題の一つである. より一般の場合に関する研究は, 文献 [4] を参照されたい. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] 一松信, 「正多面体を解く」, 東海大学出版会, 1983.&lt;br /&gt;
&lt;br /&gt;
[2] H. S. M. Coxeter, ''Regular Polytopes'', Dover, 1973. &lt;br /&gt;
&lt;br /&gt;
[3] B. Grunbaum, ''Convex Polytopes''}, Wiley, New York, 1967.&lt;br /&gt;
&lt;br /&gt;
[4] G. Kalai, &amp;quot;Liner programming, the simplex algorithm and simple polytopes,&amp;quot; ''Mathematical Programming, Series B'', Lectures on Mathematical Programming ISMP97, T. M. Liebling and D. de Werra, eds., '''79''' (1997), 217-234.&lt;br /&gt;
&lt;br /&gt;
[5] D. Naddef, &amp;quot;The Hirsch conjecture is true for (0,1)-polytopes,&amp;quot; ''Mathematical Programming'', '''45''' (1989), 109-110.&lt;br /&gt;
&lt;br /&gt;
[6] W. R. Pulleyblank, &amp;quot;Polyhedral Combinatorics,&amp;quot; in ''Optimization'', G.L. Nemhauser, A.H.G. Rinnooy Kan and M.J.Todd, eds., North-Holland, 1989. 伊理正夫, 今野浩, 刀根薫監訳,『最適化ハンドブック』, 朝倉書店, 1995.&lt;br /&gt;
&lt;br /&gt;
[7] W. Schlickenrieder, ''Nets of Polyhedra'', Ph.D. thesis, Technische Universit&amp;amp;auml;t Berlin, Germany, 1997.&lt;br /&gt;
&lt;br /&gt;
[8] A. Schrijver, ''Theory of Linear and Integer Programming'', John Wiley &amp;amp; Sons Ltd., 1986. &lt;br /&gt;
&lt;br /&gt;
[9] J. Stoera and C. Witzgall, ''Convexity and Optimization in Finite Dimensions'', Springer, 1970.&lt;br /&gt;
&lt;br /&gt;
[10] G. M. Ziegler, ''Lectures on Polytopes'', Springer-Verlag, New York, 1995.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%B5%84%E5%90%88%E3%81%9B%E6%9C%80%E9%81%A9%E5%8C%96%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4787</id>
		<title>《組合せ最適化問題》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%B5%84%E5%90%88%E3%81%9B%E6%9C%80%E9%81%A9%E5%8C%96%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4787"/>
		<updated>2007-07-15T04:57:40Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【くみあわせさいてきかもんだい (combinatorial optimization problem)】'''&lt;br /&gt;
&lt;br /&gt;
　ある計画を遂行するとき, 様々な条件を満足させながら, 最適な順序を決めたり, 複数の選択肢からいくつかを選んだり, 仕事と機械とを割り当て ([[一般化割当問題]]) たり, 施設の配置場所を決め ([[施設配置問題]]) たりする問題は現実の中でもよく当面する. これらの問題, あるいは論理代数学にみられる[[充足可能性問題]] (satisfability problem) などのように, 解集合が順列, 組合せなどで表される[[離散最適化問題]] (discrete optimization problem) を総称して[[組合せ最適化問題]] (combinatorial optimization problem) という. &lt;br /&gt;
&lt;br /&gt;
　ほとんどの組合せ最適化問題は, 変数に整数性を含む形式で数学的に表現できるため, 整数計画問題と明確な区別はできない. 慣例的には, [[巡回セールスマン問題]] (traveling salesman problem), [[ナップサック問題]] (knapsack problem), [[集合被覆問題]] (set covering problem)などのように,問題や解の構造に何等かの特徴のある離散最適化問題を, より一般的な整数計画問題と区別して, 組合せ最適化問題と呼ぶこともある. &lt;br /&gt;
&lt;br /&gt;
　組合せ最適化問題の難しさは, 一般に問題のサイズが大きくなるにつれ, 解集合を構成する要素の数が組合せ的に増加 ([[組合せ的爆発]]) することにある. したがって, たとえ有限ではあっても, すべての解を列挙して最適な解を得ることは事実上不可能となる. また, それらの多くがNP困難なクラスに属するため,単純なアルゴリズムや貪欲的な解法だけでは, 最悪の場合,最適とはかけ離れた (問題のサイズの増大に従って急速に悪くなるような) 解が得られることさえもある. &lt;br /&gt;
&lt;br /&gt;
　組合せ最適化問題を厳密に解くアプローチとしては,それらが (0-1) 整数計画問題に定式化できることから, そこで研究・開発されている解法のほとんど全てが, 組合せ最適化問題にも適用可能であるため, 一般的な整数計画問題を解くパッケージなどを利用するのも一法ではある. しかしながら, 組合せ最適化問題は,制約式の表現形式そのものが組合せ的に増大してしまうこともあるため, 単にソフトウェア任せでは, 問題の入力時点ですでに行き詰まってしまうことも少なくない. &lt;br /&gt;
&lt;br /&gt;
　例えば&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;都市の巡回セールスマン問題の場合, &amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;をグラフの点集合とし, &amp;lt;math&amp;gt;c_{ij}\, &amp;lt;/math&amp;gt;を枝&amp;lt;math&amp;gt;(i,j)\, &amp;lt;/math&amp;gt;の重み,&amp;lt;math&amp;gt;x_{ij}\, &amp;lt;/math&amp;gt;を枝&amp;lt;math&amp;gt;(i,j)\, &amp;lt;/math&amp;gt;が解に含まれるとき1, そうでないとき0の値をとる0-1変数とするとき, 次のように定式化することができる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{rll}&lt;br /&gt;
\mbox{min.} &amp;amp; \sum_{i \in V} \sum_{j \in V}c_{ij} x_{ij}&amp;amp; \\&lt;br /&gt;
\mbox{s. t.} &amp;amp; \sum_{j=1}^n x_{ij} = 1 &amp;amp; (\forall i \in V), \\&lt;br /&gt;
&amp;amp; \sum_{i=1}^n x_{ij} = 1 &amp;amp; (\forall j \in V), \\&lt;br /&gt;
&amp;amp; \sum_{i \in S} \sum_{j \in V \setminus S} x_{ij} \geq 1 &lt;br /&gt;
 &amp;amp; (\forall S \subset V, S \neq \emptyset),\\&lt;br /&gt;
&amp;amp; x_{ij} \in \{ 0, 1 \}&amp;amp; (\forall i, j \in V).&lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
この定式化では, 変数の数は&amp;lt;math&amp;gt;n^2\, &amp;lt;/math&amp;gt;であり, 制約式の1, 2番目は各&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;本で割当問題と同じ形をしているが, 部分巡回路除去制約と呼ばれている第3番目の制約は, 式の数が組合せ的に増大するため, 一般的な整数計画問題のパッケージを使うことは難しい. もちろん, 1つの問題に対する定式化の方法は一意ではなく, 巡回セールスマン問題を[[2次割当問題]] (quadratic assignment problem) や 3部グラフにおける割当問題に帰着して定式化すれば, パッケージの利用は可能になるが, それによって解きやすくなることは期待できない. &lt;br /&gt;
&lt;br /&gt;
　定式化における規模の増大を克服する試みもなされている. たとえば, [[板取り問題]] (cutting-stock problem) は, 変数の数が非常に多くなる形で定式化できるが, 列生成法によって必要な変数 (取り出しパターン) を生成しながら解くことで成功をおさめている. また, 巡回セールスマン問題のように制約式が非常に多くなる問題については, 必要な制約を随時加え, 解領域を次第に狭くしていきながら解く [[切除平面法]] (cutting plane method) が適用できる. &lt;br /&gt;
&lt;br /&gt;
　切除平面法は, 組合せ最適化問題を研究する上で, 歴史的にも理論的にも重要な位置を占めている. この方法の基本的な考え方は, まず問題の整数条件を連続緩和した問題を考える. このとき, さらに制約式の一部を除去してもよい. 例えば, 巡回セールスマン問題の場合, 第3番目の制約式を除いて緩和した問題は割当問題と等価になる. この緩和問題を解くと, 一般に元問題にとっては実行不可能な解が得られる. ここで, その解は切除するが, 元問題の実行可能解は切除しないような制約を生成し, それらを逐次加えていきながら, 連続緩和問題を解き続ける. その結果, 最初に出た実行可能解が最適解となる. &lt;br /&gt;
&lt;br /&gt;
　切除平面法の正当性は理論的に裏付けられているが, 単独利用だけでは収束性や計算機の精度などにおいて難があり, 1970-80年代にはより実用的な分枝限定法に軍配があがっていた. しかし近年では分枝限定法の中に切除平面法を組み込む手法 (分枝切除法) が様々な問題で成功をおさめ, 再び注目を浴びつつある. &lt;br /&gt;
&lt;br /&gt;
　[[分枝限定法]] (branch-and-bound method) は, 分割統治法の一種であり, そのままの問題では規模が大きすぎて解きにくいものを, 変数などを固定することにより解領域を解ける程度にまで小さな問題 (子問題) に分割し, 各子問題, あるいはその緩和問題を解いて得られる情報をまとめて, 元の問題の最適解を得ようという考えに基づいている. &lt;br /&gt;
&lt;br /&gt;
　分枝限定法の基本的な枠組みは以下のように記述できる. ただし, ここでは最小化問題について説明しており, 上界値というのは, 最適値以上であることが分かっている値で, 通常近似解法などで得られる値をさす. また, 下界値というのは, 最適値以下であることが分かっている値で, 緩和問題などを解いて得られる値のことをいう. 最大化問題の場合は, 上界値・下界値の意味が逆転することに注意されたい. 以下では, 未探査の子問題の集合を&amp;lt;math&amp;gt;{\mathcal N}\, &amp;lt;/math&amp;gt;とする. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{step1}\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\boldsymbol{x}:=\, &amp;lt;/math&amp;gt;初期実行可能解, &amp;lt;math&amp;gt;z:=\, &amp;lt;/math&amp;gt;初期上界値, &amp;lt;math&amp;gt;{\mathcal N}:=\{ P_0 \}\, &amp;lt;/math&amp;gt;(元問題).&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{step2}\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;{\mathcal N}=\emptyset\, &amp;lt;/math&amp;gt;ならば現在の&amp;lt;math&amp;gt;\boldsymbol{x}\, &amp;lt;/math&amp;gt;が最適解で終了. そうでなければ, &amp;lt;math&amp;gt;{\mathcal N}\, &amp;lt;/math&amp;gt;から適当な子問題&amp;lt;math&amp;gt;P'\, &amp;lt;/math&amp;gt;を選び&amp;lt;math&amp;gt;{\mathcal N} := {\mathcal N} \setminus \{P'\}\, &amp;lt;/math&amp;gt;とする. &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{step3}\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;P'\, &amp;lt;/math&amp;gt;の緩和問題を解き, その最適解を&amp;lt;math&amp;gt;\bar{\boldsymbol{x}}'\, &amp;lt;/math&amp;gt;, 最適値を&amp;lt;math&amp;gt;\bar{z'}\, &amp;lt;/math&amp;gt; (この値は&amp;lt;math&amp;gt;P'\, &amp;lt;/math&amp;gt;の下界値となる) とする. 緩和問題が実行不可能であればstep2へ戻る. &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{step4}\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\bar{\boldsymbol{x}}'\, &amp;lt;/math&amp;gt;が元問題の実行可能解ならばstep2へ戻る. その際, &amp;lt;math&amp;gt;z &amp;gt; \bar z'\, &amp;lt;/math&amp;gt;ならよりよい上界値が得られたので, &amp;lt;math&amp;gt;\boldsymbol{x} := \bar{\boldsymbol{x}}'\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;z := \bar z'\, &amp;lt;/math&amp;gt;として更新する. &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{step5}\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;\bar z' \geq z\, &amp;lt;/math&amp;gt;ならば子問題&amp;lt;math&amp;gt;P'\, &amp;lt;/math&amp;gt;の最適解を求めたとしても, &amp;lt;math&amp;gt;\boldsymbol{x}\, &amp;lt;/math&amp;gt;以上のよい解が得られないので, step2へ戻る. &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{step6}\, &amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;P'\, &amp;lt;/math&amp;gt;の実行可能領域を分割した子問題を生成し, それらを&amp;lt;math&amp;gt;{\mathcal N}\, &amp;lt;/math&amp;gt;に加え, step2 へ戻る. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　分枝限定法は基本的に列挙法であり, 最悪の場合を考えれば全ての解を列挙してしまうこともあり得るが, 多くの場合極めて効果的に働き, 無駄な列挙を削除することで, かなり大規模な問題であっても最適解を得ることに成功している. &lt;br /&gt;
&lt;br /&gt;
　無駄な列挙を削除できる場合というのは, 緩和問題が実行不可能のとき(step3), 緩和問題の解が実行可能のとき(step4), 緩和問題の最適値が上界値と等しいか悪い (大きい) とき (step5) であるが,その中でも特にstep5の果たす役割は非常に大きい. これをうまく働かせるためには, より大きな下界値を得ることと, 近似解法などを用いてよりよい上界値を得ること (step1) が必要不可欠である. その他にも, 探索する子問題の選択 (step2) や子問題の分割法 (step6) も重要な役割を果たす. &lt;br /&gt;
 &lt;br /&gt;
　以下では, 下界値を改善する代表的な方法として[[ラグランジュ緩和法]] (Lagrangian relaxation method) と切除平面法について説明する. &lt;br /&gt;
&lt;br /&gt;
　ラグランジュ緩和は, 問題の緩和のため, 除去した制約にラグランジュ乗数というスカラーを掛けて目的関数に加えて作成する. ラグランジュ緩和の作り方は, どの制約を目的関数に組込むかでいく通りも考えられるが, 一般的に残った制約式が解きやすい問題となるものを選ぶ. 例えば巡回セールスマン問題の場合には, 第3番目の制約をラグランジュ緩和すると, 次の割当問題となり, この最適値は巡回セールスマン問題の下界値を与える. ただし, &amp;lt;math&amp;gt;\boldsymbol{\mu}\, &amp;lt;/math&amp;gt;はラグランジュ乗数ベクトル, 各要素は&amp;lt;math&amp;gt;\mu_S \geq 0 (S \subset V, S \neq \emptyset)\, &amp;lt;/math&amp;gt;である. 等式制約をラグランジュ緩和するときには, ラグランジュ乗数に符号の制約は付かない. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\mbox{min.} \quad L(\boldsymbol{\mu}) = \sum_{(i,j) \in E} c_{ij} x_{ij} + \sum_S &lt;br /&gt;
\mu_S \cdot (1-\sum_{i \in S}\sum_{j \in V \setminus S} x_{ij})\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
このとき, できるだけ大きな下界値を得るような&amp;lt;math&amp;gt;\boldsymbol{\mu}\, &amp;lt;/math&amp;gt;を定めることが大切であり, それをラグランジュ最適化問題 (ラグランジュ双対問題) という. つまり, &amp;lt;math&amp;gt;L (\boldsymbol{\mu})\, &amp;lt;/math&amp;gt;の最適値を&amp;lt;math&amp;gt;L^*(\boldsymbol{\mu})\, &amp;lt;/math&amp;gt;とするとき, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;L = \max_{\boldsymbol{\mu} \geq 0} \{L^*(\boldsymbol{\mu}) \}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と表現される問題である. この問題を解くために, 微分不可能な区分線形関数における非線型最適化手法のひとつである [[劣勾配法]] (subgradient method) と呼ばれる逐次反復法が用いられることが多い. 劣勾配法による反復は, かなり少ない回数で打ち切っても, 十分良い下界値が求まることが様々な問題において報告されている. &lt;br /&gt;
&lt;br /&gt;
　効果的な下界値を算出するもう1つの方法として, 切除平面法を分枝限定法に組込む[[分枝切除法]] (branch-and-cut method)が, 大規模な組合せ最適化問題を効果的に解く方法として注目を浴びつつある. これは, 切除平面法が解領域を徐々に狭くしていくことから, よりよい緩和問題を解いていると捉えるものである. 特に元の問題にとっての実行不可能な解をできるだけ大きく切り落とすような, (極大面) カットとよばれる不等式の様々な生成法が研究されている.&lt;br /&gt;
&lt;br /&gt;
　組合せ最適化問題の厳密解法において, 分枝限定法は布の縦糸のようなもので, それに横糸であるラグランジュ緩和法, 劣勾配法, 切除平面法,近似解法などを絡めることにより, 優れた解法が開発されている. 分枝限定法は, 非凸領域をもつ数理計画問題や, 大域最適化問題などの解法としても注目を浴びつつある. &lt;br /&gt;
&lt;br /&gt;
　組合せ最適化問題に関する文献は, 理論的なもの, 実験的なもの, 実例的なもの, 近似解法など様々な視点から, それぞれ膨大な数の優れた論文や著書がある. 近年, ハンドブック的な書籍 [2, 3] 等が出ており,邦訳されたもの [4, 5] もある. 特に [1] は, 文献の書評集であり, 適切な文献を探すのに有用である. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] M. Dell'Amico, F. Maffioli and S. Martello, eds., ''Annotated Bibliographies in Combinatorial Optimization'', John Wiley &amp;amp; Sons, 1997.&lt;br /&gt;
&lt;br /&gt;
[2] D.-Z. Du and P.M. Pardalos, eds.,''Handbook of Combinatorial Optimization, 3 vols.'', Kluwer, 1998.&lt;br /&gt;
&lt;br /&gt;
[3] R.L. Graham, M. Gr&amp;amp;ouml;tschel and L. Lov&amp;amp;aacute;sz, &lt;br /&gt;
eds.,''Handbook of Combinatorics, 2 vols.'', North-Holland, 1995.&lt;br /&gt;
&lt;br /&gt;
[4] B. Korte and J. Vygen, ''Combinatorial Optimization: Theory and Algorithms'', Springer, 2002. 浅野孝夫, 平田富夫, 小野孝男, 浅野泰仁訳, 『組み合わせ最適化 - 理論とアルゴリズム』, シュプリンガー・フェアラーク, 2005.&lt;br /&gt;
&lt;br /&gt;
[5] G.L. Nemhauser, A.H.G. Rinnooy Kan and M.J.Todd, eds.,''Optimization'', North-Holland, 1989. 伊理正夫, 今野浩, 刀根薫監訳, 『最適化ハンドブック』, 朝倉書店, 1995.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%95%B4%E6%95%B0%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=4786</id>
		<title>《整数計画》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E6%95%B4%E6%95%B0%E8%A8%88%E7%94%BB%E3%80%8B&amp;diff=4786"/>
		<updated>2007-07-15T04:55:00Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【せいすうけいかく (integer programming)】'''&lt;br /&gt;
&lt;br /&gt;
　最適化問題において, 変数が整数値を取るという制約がいくつかの変数に付いているとき, これを[[整数計画]](integer programming)(整数計画法, 整数計画問題)と呼ぶ. 特に, 全ての変数が0または1の値を取るものを, [[0-1整数計画問題]] (0-1 integer programming problem)と呼ぶ. また, 全ての変数が整数値をとるものを, [[全整数計画問題]] (all integer programming problem) と呼ぶ．整数値を取る変数と, 実数値を取る変数が混じっている問題は, [[混合整数計画]](mixed integer programming problem)と呼ばれるが, MIP（ミップ)と省略して呼ばれる事も多い. &lt;br /&gt;
&lt;br /&gt;
　例えば, 目的関数を最大化するような 0-1 整数計画問題は, 以下のように記述される. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{lll}&lt;br /&gt;
\mbox{max.}  &amp;amp; f(x_1,x_2,\ldots ,x_n) \\&lt;br /&gt;
\mbox{s. t.}&amp;amp; g_i (x_1,x_2,\ldots ,x_n)\geq b_i &lt;br /&gt;
       &amp;amp;  (i=1,2,\ldots ,m), \\&lt;br /&gt;
                 &amp;amp;  x_1,x_2,\ldots ,x_n \in \{0,1\}. \\&lt;br /&gt;
\end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
整数値を取る変数は, 整数変数と呼ばれ, 0または1の値を取る変数は, 0-1変数と呼ばれる.&lt;br /&gt;
&lt;br /&gt;
　整数計画問題は, NP困難と呼ばれる問題クラスに属しており, 厳密解をいつでも効率的に求める算法の存在は, 理論的に絶望視されている. しかしながら, 様々な技法の開発と計算機の高性能化に伴い, 実用的に十分短い計算時間で解ける問題のクラスとサイズは,  いまも広がり続けている. &lt;br /&gt;
&lt;br /&gt;
　上記の3つの問題の厳密解を求めるのは, 経験的に, 0-1整数計画問題が最も解きやすく, 次に全整数計画問題, そして混合整数計画問題が最も難しいと言われる.しかしながら, 発見的解法の作り易さは, 必ずしもこの順ではない.    &lt;br /&gt;
&lt;br /&gt;
　上に記述した0-1整数計画問題において，目的関数と制約式中の関数が全て線形関数であるような問題は, 数多くの研究がなされており, また市販のソフトウェアもそのような問題を解くものがほとんどである．0-1整数計画問題を解く解法は, 「0または1の値を取る」という制約を, 「0以上1以下の値を取る」という制約に緩和した問題 (線形緩和問題)を手がかりにした分枝限定法, あるいは分枝切除法を用いる事が多い. &lt;br /&gt;
&lt;br /&gt;
　全整数計画問題は, 整数値を表すのに, 複数の0-1変数を使う事によって, 0-1整数計画問題に変形することができるが,  このような変形は一般に解法の効率を落とす事が多い. 全整数計画問題も, 整数値をとる変数を連続変数に緩和した線形緩和問題を手がかりにした分枝限定法を用いて解くことが多い. &lt;br /&gt;
&lt;br /&gt;
　混合整数計画問題は, 問題を連続変数部分と整数変数部分に分解する手続きを繰り返しながら解く Benders の分解法と, 分枝限定法を組み合わせて解かれる事が多い. &lt;br /&gt;
&lt;br /&gt;
　実用的な計算時間である程度良い解を求める発見的解法の研究も数多くなされている. しかしながら, 高性能な発見的解法は, 問題の特質に着目している事が多く, 高性能の発見的解法の構築法を一般的に議論する事は困難である. &lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] 今野浩, 鈴木久敏編著,『整数計画法と組合せ最適化問題』, 日科技連出版社, 1978.&lt;br /&gt;
&lt;br /&gt;
[2] 茨木俊秀,『組合せ最適化 分枝限定法を中心として』,産業図書, 1983.&lt;br /&gt;
&lt;br /&gt;
[3] 久保幹雄, 田村明久, 松井知己編, 『応用数理計画ハンドブック』, 朝倉書店, 2002.&lt;br /&gt;
&lt;br /&gt;
[4] G. L. Nemhauser and L. A. Wolsey, ''Integer and Combinatorial Optimization'', Wiley, New York, 1988.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%9A%E9%A0%85%E5%BC%8F%E6%9C%80%E9%81%A9%E5%8C%96%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4780</id>
		<title>《多項式最適化問題》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%9A%E9%A0%85%E5%BC%8F%E6%9C%80%E9%81%A9%E5%8C%96%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4780"/>
		<updated>2007-07-14T15:25:40Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【たこうしきさいてきかもんだい (polynomial optimization problem)】'''&lt;br /&gt;
&lt;br /&gt;
　変数 &amp;lt;math&amp;gt;x = (x_1, \ldots, x_n)&amp;lt;/math&amp;gt; に関する多項式&amp;lt;math&amp;gt;f, &amp;lt;math&amp;gt;g_i\, (i=1,\ldots,m), h_j (j=1,\ldots,l)&amp;lt;/math&amp;gt; を用いて記述される非線形計画問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\begin{array}{ll} &lt;br /&gt;
  \mbox{min.} &amp;amp; f(x) \\&lt;br /&gt;
  \mbox{s. t. } &amp;amp; g_i(x) \geq 0 \ (i=1,\ldots,m), \\&lt;br /&gt;
   &amp;amp; h_j(x) = 0 \ (j=1,\ldots,l)&lt;br /&gt;
\end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を[[多項式最適化問題]](polynomial optimization problem)と呼ぶ. 多項式計画問題は一般に非凸計画問題であり, NP 困難な最適化問題である. 変数が0または1という制約は2次の多項式で表現できるので, 多項式計画問題は 0-1 整数計画問題を特殊ケースとして含む. &lt;br /&gt;
&lt;br /&gt;
　通常の非線形計画問題においては局所的最適解を求めることが目標であるが, 多項式計画問題においては, 凸計画を用いてその大域的最適値を求める方法が存在する. そのため, 多項式計画問題に対しては大域的最適化が前提となる. &lt;br /&gt;
&lt;br /&gt;
　多項式最適化問題の最適値は半正定値計画(SDP)による緩和問題を解くことにより求められる. その概要は次のとおりである. 多項式計画問題に現れる多項式の次数のうち, 最大のものを&amp;lt;math&amp;gt;d\,&amp;lt;/math&amp;gt;とし, &amp;lt;math&amp;gt;R = \{ r\in N \ | \ r \geq \lceil d/2\rceil \}&amp;lt;/math&amp;gt; とおく. 各 &amp;lt;math&amp;gt;r \in R&amp;lt;/math&amp;gt; に対し, （多項式計画問題にコンパクトな実行可能領域が存在するなどの比較的緩やかな条件の元で）次の性質を持つSDP 緩和問題 &amp;lt;math&amp;gt;\mbox{SDP}(r)&amp;lt;/math&amp;gt; を生成できる [1]:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
:*&amp;lt;math&amp;gt;\mbox{SDP}(r)&amp;lt;/math&amp;gt; の最適値 &amp;lt;math&amp;gt;\theta_r&amp;lt;/math&amp;gt; は多項式計画問題の最適値&amp;lt;math&amp;gt;\theta_\ast&amp;lt;/math&amp;gt;以下である. &lt;br /&gt;
&lt;br /&gt;
:*任意の &amp;lt;math&amp;gt;r\in R&amp;lt;/math&amp;gt; に対して &amp;lt;math&amp;gt;\theta_{r+1} \geq \theta_r&amp;lt;/math&amp;gt; が成り立つ. &lt;br /&gt;
&lt;br /&gt;
:*&amp;lt;math&amp;gt;\mbox{lim}_{r\rightarrow\infty} \theta_r = \theta_\ast&amp;lt;/math&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
SDP 緩和問題を決定する正整数 &amp;lt;math&amp;gt;r\in R&amp;lt;/math&amp;gt; を緩和次数と呼ぶ. このような性質を持つ SDP 緩和問題を構成できるという事実の背後には, ２乗和多項式（Sums Of Squares; SOS）の理論が存在する. このため, 上記で説明した SDP 緩和を SOS 緩和と呼ぶこともある. &lt;br /&gt;
&lt;br /&gt;
　後述するように &amp;lt;math&amp;gt;r\,&amp;lt;/math&amp;gt; を一つ上げると &amp;lt;math&amp;gt;\mbox{SDP}(r)&amp;lt;/math&amp;gt; のサイズは急激に大きくなり, その結果解けなくなる場合も多い. 従って通常は最も小さな &amp;lt;math&amp;gt;r=\lceil d/2 \rceil&amp;lt;/math&amp;gt; から始め, 一つずつ緩和次数を大きくしながら SDP 緩和問題の列を解いていく. 理論上は緩和次数を無限に大きくしなければ最適値は得られないが, 実際には有限の（しかもそれほど大きくない）緩和次数で最適値が達成される場合が多い. 特に実行可能解が有限個しか無い場合には, 有限の緩和次数で最適解が求められることを理論的に保証できることがある. 例えば &amp;lt;math&amp;gt;n\,&amp;lt;/math&amp;gt; 変数の&amp;lt;math&amp;gt;0-1\,&amp;lt;/math&amp;gt; 整数計画問題（を多項式計画問題に変換したもの）に対し, ある大きさの緩和次数の SDP を解けば必ずその最適解が求められることが知られている[2]. ただしその大きさの緩和次数を用いたとき, SDP 緩和問題の変数の数は &amp;lt;math&amp;gt;2^n-1&amp;lt;/math&amp;gt; 個必要となる. &lt;br /&gt;
&lt;br /&gt;
　多項式計画問題の最適値だけでなく, 最適解を求める方法も研究されている. 多項式計画問題の最適解が1個のときには, &amp;lt;math&amp;gt;\theta_r = \theta_\ast&amp;lt;/math&amp;gt; が成り立っていれば, 多くの場合に&amp;lt;math&amp;gt;\mbox{SDP}(r)&amp;lt;/math&amp;gt; の最適解から多項式最適化問題の最適解を簡単に抽出できる. 多項式最適化問題の最適解が複数個（ただし有限個）ある場合でも, 適当な仮定の元では&amp;lt;math&amp;gt;\mbox{SDP}(r)&amp;lt;/math&amp;gt; の最適解からすべての最適解を抽出することが可能である [3]. &lt;br /&gt;
&lt;br /&gt;
　多項式計画問題の変数の数を &amp;lt;math&amp;gt;n\,&amp;lt;/math&amp;gt; としたとき, &amp;lt;math&amp;gt;\mbox{SDP}(r)&amp;lt;/math&amp;gt; で用いられる行列の大きさの下限と使用される変数の数はそれぞれ&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\left( \begin{array}{c} n+r \\ r \end{array}\right)\times \left( \begin{array}{c} n+r \\ r \end{array}\right)&amp;lt;/math&amp;gt;　および　&amp;lt;math&amp;gt;\left( \begin{array}{c} n+2r \\ 2r \end{array}\right)&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
である. これより, SDP緩和問題のサイズは&amp;lt;math&amp;gt;n\,&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;r\,&amp;lt;/math&amp;gt; の増大とともに急激に大きくなることがわかる. このため, 10変数程度の問題でも緩和次数を &amp;lt;math&amp;gt;4\,&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;5\,&amp;lt;/math&amp;gt; 程度以上に大きくすることは困難な場合が多い. この状況を打開するため「通常の多項式計画問題で使われる多項式には, 非常に少ない数の項しか現れない」という性質（多項式の疎性という）を利用してSDP のサイズを縮小する方法が提案されている [5]. この方法を用いると, 適切な疎性構造を持った問題であれば数百変数の問題も解くことが可能となる. 現実に現れる多項式計画問題はほとんど疎性を持っており, これをうまく利用することが多項式計画問題を解く鍵であると考えられている. &lt;br /&gt;
&lt;br /&gt;
　多くの多項式計画問題の SDP 緩和問題は極めて悪条件であることが, 数値実験により知られている. これには様々な理由が考えられる. 一つの原因としては, 多項式計画問題においては必然的に冪乗を計算することになるため, 数値の大小の幅が大きいことが挙げられる. 変数の範囲を &amp;lt;math&amp;gt;[0,1]\,&amp;lt;/math&amp;gt; に正規化することは, 数値的安定性を得るのにしばしば大きな効果を上げることが知られている. また, 最適解の近傍で変数行列（の部分行列）が Hankel 行列に近づくことも悪条件の原因の一つと推測されている.  Hankel 行列は悪条件な行列で知られているが、主双対内点法においてはこの変数行列の逆行列を計算する必要があり, それが数値的に破綻する. この問題は未だ本質的には克服されていない. &lt;br /&gt;
&lt;br /&gt;
　線形計画を半正定値計画や等質自己双対錐上の線形計画に拡張したのと同様の方法により, 多項式計画問題における不等式制約を, 半正定値制約や等質自己双対錐に含まれるという制約に拡張した問題も考えられている. これらの拡張された問題に対し, 一般の場合と同様に SDP 緩和問題を構成でき, その最適値が元の問題の最適値へ収束することが示されている [4]. しかしながら, 扱う SDP 緩和問題は一般にさらに巨大になる. このため, この場合にも多項式の疎性を利用する研究が進んでいる. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] J.B. Lasserre, Global optimization with polynomials and the problems of moments. ''SIAM Journal on Optimization'', '''11''' (2001) 796-817.&lt;br /&gt;
&lt;br /&gt;
[2] J.B. Lasserre, An Explicit Equivalent Positive Semidefinite Program for Nonlinear 0-1 Programs. ''SIAM Journal on Optimization'', '''12''' (2002) 756-769.&lt;br /&gt;
&lt;br /&gt;
[3] D.Henrion and J.B.Lasserre, Detecting global optimality and extracting solutions in GloptiPoly, D. Henrion, A. Garulli(Editors). ''Positive polynomials in control''. Lecture Notes on Control and Information Sciences, Springer Verlag (2005).&lt;br /&gt;
&lt;br /&gt;
[4] M. Kojima and M. Muramatsu, An Extension of Sums of Squares Relaxations to &lt;br /&gt;
Polynomial Optimization Problems over Symmetric Cones. ''Mathematical Programming'', to appear.&lt;br /&gt;
&lt;br /&gt;
[5] H. Waki, S. Kim, M. Kojima and M. Muramatsu, Sums of Squares and Semidefinite Programming Relaxations for Polynomial Optimization Problems with Structured Sparsity, ''SIAM Journal on Optimization'', '''17''' (2006) 218-242.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E9%AB%98%E9%80%9F%E5%BE%AE%E5%88%86%E6%B3%95%E3%80%8B&amp;diff=4779</id>
		<title>《高速微分法》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E9%AB%98%E9%80%9F%E5%BE%AE%E5%88%86%E6%B3%95%E3%80%8B&amp;diff=4779"/>
		<updated>2007-07-14T15:23:21Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【こうそくびぶんほう (fast differentiation)】'''&lt;br /&gt;
&lt;br /&gt;
　非線形関数の[[勾配]], [[ヤコビ行列]], [[ヘッセ行列]]等の値を数値的に計算する方法のひとつ. 高速自動微分法(fast automatic differentiation), 計算微分法(computational differentiation), 単純に自動微分(automatic differentiation; 以下 AD)ともいう. 主なアルゴリズムは2種あり, ボトムアップ(前進)自動微分(bottom-up AD, forward AD; 以下 BUAD) と, トップダウン(逆行)自動微分(top-down AD, reverse AD, backward AD; 以下 TDAD) という [1, 2]. 高速微分法は狭義には, TDADを指す. AD は「関数の値を計算するプログラム」から「偏導関数の値を計算するプログラム」を生成する手順を与え, 生成物を(コンパイルし)実行すれば, 差分商近似のような打ち切り誤差無しで, 正確な偏導関数の値を計算できる. 大規模システムの数学モデル等の大規模プログラム(数千行以上)により表現される関数の偏導関数を計算できるのが特長. &amp;lt;math&amp;gt;n\,&amp;lt;/math&amp;gt;変数関数の勾配の&amp;lt;math&amp;gt;n\,&amp;lt;/math&amp;gt;個の値を関数計算の手間の定数倍で計算できる点が「高速」微分の由来である. &lt;br /&gt;
&lt;br /&gt;
　以下，BUAD と TDAD による計算法を説明する．例として，2変数関数 &amp;lt;math&amp;gt;f(x,y)=x/\sqrt{x^2+y}&amp;lt;/math&amp;gt; について, &amp;lt;math&amp;gt;f(3,4)\,&amp;lt;/math&amp;gt; の値を計算する代入文の列(プログラム), &amp;lt;math&amp;gt;x=3, y=4, v_1=x, v_2=y, v_3=v_1*v_1, v_4=v_3+v_2, v_5=\sqrt{v_4}, v_6=v_1/v_5&amp;lt;/math&amp;gt; を考えよう. ただし, 各代入文の右辺には, 演算(基本演算とよぶ)が高々1回だけ現れるとする. &amp;lt;math&amp;gt;v_1\,&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;v_2\,&amp;lt;/math&amp;gt; が &amp;lt;math&amp;gt;x\,&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;y\,&amp;lt;/math&amp;gt; に対応し, &amp;lt;math&amp;gt;v_6\,&amp;lt;/math&amp;gt; に &amp;lt;math&amp;gt;f(x,y)\,&amp;lt;/math&amp;gt; の値が計算される. 一般には, &amp;lt;math&amp;gt;n\,&amp;lt;/math&amp;gt;変数関数 &amp;lt;math&amp;gt;f(x_1,\cdots,x_n)&amp;lt;/math&amp;gt; について, &amp;lt;math&amp;gt;k\,&amp;lt;/math&amp;gt;回目の代入文には, &amp;lt;math&amp;gt;k-1\,&amp;lt;/math&amp;gt;回目までに計算される変数が現れうるから, 延べ &amp;lt;math&amp;gt;r\,&amp;lt;/math&amp;gt; 回の演算を行なう代入文の列は&amp;lt;math&amp;gt;\{v_k=\varphi_k(v_1,\cdots,v_{k-1})\}_{k=1}^r&amp;lt;/math&amp;gt;と表される. これを計算過程といい, &amp;lt;math&amp;gt;v_k\,&amp;lt;/math&amp;gt; を中間変数という. &amp;lt;math&amp;gt;k\leq n&amp;lt;/math&amp;gt; のとき &amp;lt;math&amp;gt;\varphi_k&amp;lt;/math&amp;gt; は&amp;lt;math&amp;gt;v_k=x_k&amp;lt;/math&amp;gt; という入力定数の代入演算に相当する.&lt;br /&gt;
&lt;br /&gt;
　BUADは, 補助変数 &amp;lt;math&amp;gt;\{s_k\}_{k=1}^r&amp;lt;/math&amp;gt; を導入し, 任意に &amp;lt;math&amp;gt;j\,&amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(1\leq j\leq n)&amp;lt;/math&amp;gt;を固定して, 合成関数の&amp;lt;math&amp;gt;x_j\,&amp;lt;/math&amp;gt; に関する偏微分則 &amp;lt;math&amp;gt;\textstyle {\partial v_k}/{\partial x_j} = \sum_{i=1}^{k-1}({\partial \varphi_k}/{\partial v_i})\cdot({\partial v_i}/{\partial x_j})&amp;lt;/math&amp;gt; に基づき, &amp;lt;math&amp;gt;s_k\,&amp;lt;/math&amp;gt; を計算する式を導出する. 基本演算 &amp;lt;math&amp;gt;\varphi_k&amp;lt;/math&amp;gt; を四則演算や初等関数などの2項・単項の演算に限れば, 表1により, &amp;lt;math&amp;gt;{\partial \varphi_k}/{\partial v_i}&amp;lt;/math&amp;gt; (これを要素的偏導関数という)を導出できる. &amp;lt;math&amp;gt;s_j=1\,&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;s_\ell=0&amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(1\leq\ell\leq n, \ell\not=j)&amp;lt;/math&amp;gt; と初期設定すれば, &amp;lt;math&amp;gt;k=n+1\,, n+2\,, \cdots&amp;lt;/math&amp;gt; について&amp;lt;math&amp;gt;s_i=\partial v_i/\partial x_j&amp;lt;/math&amp;gt; &amp;lt;math&amp;gt;(i=1,\cdots,k-1)&amp;lt;/math&amp;gt;を計算済みとみなすことができ, &amp;lt;math&amp;gt;\textstyle s_k=\sum_{i=1}^{k-1}({\partial \varphi_k}/{\partial v_i})\cdot s_i&amp;lt;/math&amp;gt; の値を計算できる. 最終的に &amp;lt;math&amp;gt;s_r=\partial f/\partial x_j&amp;lt;/math&amp;gt; となる. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;div align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;table width=&amp;quot;600&amp;quot; border=&amp;quot;0&amp;quot; cellspacing=&amp;quot;0&amp;quot; cellpadding=&amp;quot;0&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td colspan=&amp;quot;2&amp;quot; align=&amp;quot;center&amp;quot;&amp;gt;表１：基本演算と要素的偏導関数&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;table width=&amp;quot;200&amp;quot; border=&amp;quot;1&amp;quot; cellspacing=&amp;quot;2&amp;quot; cellpadding=&amp;quot;2&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\varphi_k&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\partial \varphi_k/ v_\alpha&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\partial \varphi_k/ v_\beta&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;v_k=v_\alpha \pm v_\beta\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;1\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\pm1&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;v_k=v_\alpha * v_\beta\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;v_\beta\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;v_\alpha\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;v_k=v_\alpha / v_\beta\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;1/v_\beta\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;-v_\alpha/({v_\beta}^2)\, &amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;p&amp;gt;&amp;lt;math&amp;gt;(=-v_k/v_\beta)\, &amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&amp;lt;/table&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot;&amp;gt;&amp;lt;table width=&amp;quot;200&amp;quot; border=&amp;quot;1&amp;quot; cellspacing=&amp;quot;2&amp;quot; cellpadding=&amp;quot;2&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\varphi_k\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\partial \varphi_k/ v_\alpha\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;v_k=\exp(v_\alpha)\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;\exp(v_\alpha)\,\,(=v_k)&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;v_k=\log(v_\alpha)\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;1/v_\alpha\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;v_k=\sqrt{v_\alpha}\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td align=&amp;quot;center&amp;quot; valign=&amp;quot;middle&amp;quot;&amp;gt;&amp;lt;math&amp;gt;1/(2\sqrt{v_\alpha})\, &amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;p&amp;gt;&amp;lt;math&amp;gt;(=0.5/v_k)\, &amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
　先の例では, &amp;lt;math&amp;gt;\partial v_1/\partial x=1, \partial v_2/\partial x=0&amp;lt;/math&amp;gt; に注意して, &amp;lt;math&amp;gt;s_1=1\,&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;s_2=0\,&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;s_3=2*v_1*s_1\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;s_4=s_3+s_2\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;s_5=0.5/v_5*s_4\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;s_6=(1/v_5)*s_1+(-v_6/v_5)*s_5\, &amp;lt;/math&amp;gt; という代入文の列を生成する. これを実行すると &amp;lt;math&amp;gt;s_6\,&amp;lt;/math&amp;gt; には &amp;lt;math&amp;gt;(\partial f/\partial x)(3,4)\, &amp;lt;/math&amp;gt; の値が計算される(&amp;lt;math&amp;gt;v_k\,&amp;lt;/math&amp;gt; の計算の直後に &amp;lt;math&amp;gt;s_k\,&amp;lt;/math&amp;gt; を計算してもよい). 高々2項までの基本演算だけ使用するという条件の下では, BUADの手間は &amp;lt;math&amp;gt;\mbox{O}(r)\, &amp;lt;/math&amp;gt; である. &amp;lt;math&amp;gt;s_1=0\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;s_2=1\, &amp;lt;/math&amp;gt; と一部変更し, もう一度計算すれば, &amp;lt;math&amp;gt;s_6\,&amp;lt;/math&amp;gt; には, &amp;lt;math&amp;gt;(\partial f/\partial y)(3,4)&amp;lt;/math&amp;gt; の値が計算される. &amp;lt;math&amp;gt;n\,&amp;lt;/math&amp;gt;変数関数の勾配を計算するには, 同様の計算を &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;回繰り返す必要がある. &lt;br /&gt;
&lt;br /&gt;
　TDADはこれとは異なり, 先の計算過程を &amp;lt;math&amp;gt;\{-v_k+\varphi_k(v_1,\cdots,v_{k-1})=0\}_{k=1}^r&amp;lt;/math&amp;gt; と書き直し, これらを &amp;lt;math&amp;gt;v_1, \cdots, v_r&amp;lt;/math&amp;gt; に関する制約式とみなす. この制約の下で, &amp;lt;math&amp;gt;v_r\,&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;f\,&amp;lt;/math&amp;gt;の値) の停留点を考える. ラグランジュ関数&amp;lt;math&amp;gt;\textstyle L(v_1,\cdots,v_r; \lambda_1,\cdots,\lambda_r)=v_r+\sum_{k=1}^r\lambda_k(-v_k+\varphi_k(v_1,\cdots,v_{k-1}))&amp;lt;/math&amp;gt; の停留点(&amp;lt;math&amp;gt;\partial L/\partial \lambda_k=0&amp;lt;/math&amp;gt; かつ&amp;lt;math&amp;gt;\partial L/\partial v_k=0&amp;lt;/math&amp;gt; が成立する点)では, ラグランジュ乗数 &amp;lt;math&amp;gt;\lambda_k\, &amp;lt;/math&amp;gt; は, &amp;lt;math&amp;gt;k\,&amp;lt;/math&amp;gt;番目の制約式の摂動に対する関数値 &amp;lt;math&amp;gt;v_r\,&amp;lt;/math&amp;gt; の感度を与えるが, &amp;lt;math&amp;gt;j=1,\cdots, n&amp;lt;/math&amp;gt; については&amp;lt;math&amp;gt;\lambda_j\, &amp;lt;/math&amp;gt; は &amp;lt;math&amp;gt;\partial f/\partial x_i&amp;lt;/math&amp;gt; に等しい. 入力 &amp;lt;math&amp;gt;x_1, \cdots, x_n&amp;lt;/math&amp;gt; を定めると&amp;lt;math&amp;gt;v_{1}, \cdots, v_r&amp;lt;/math&amp;gt; は一意に定まるが, &amp;lt;math&amp;gt;\lambda_k\, &amp;lt;/math&amp;gt; は連立一次方程式&amp;lt;math&amp;gt;\textstyle (\partial L/\partial v_r=)1+\lambda_r\cdot (-1)=0,(\partial L/\partial v_k=)\sum_{j=k+1}^r\lambda_j\cdot(\partial\varphi_j/\partial v_k) + \lambda_k\cdot(-1)=0 (k=r-1,\cdots,1)&amp;lt;/math&amp;gt;を満たす. これを解くには, &amp;lt;math&amp;gt;\varphi_k&amp;lt;/math&amp;gt; が実質的に単項・2項演算であることを考慮すると, &amp;lt;math&amp;gt;\lambda_r\gets 1, \lambda_{r-1}\gets 0,\cdots, \lambda_1\gets 0&amp;lt;/math&amp;gt; と初期化しておき, &amp;lt;math&amp;gt;k=r-1,r-2,\cdots,1&amp;lt;/math&amp;gt; の順に &amp;lt;math&amp;gt;\lambda_i\gets\lambda_i+\lambda_k\cdot(\partial \varphi_k/\partial v_i)(i=1,\cdots,k-1)&amp;lt;/math&amp;gt; を計算する. 各 &amp;lt;math&amp;gt;k\,&amp;lt;/math&amp;gt; について高々2個の &amp;lt;math&amp;gt;i\,&amp;lt;/math&amp;gt; についてだけ計算すればよい. &lt;br /&gt;
&lt;br /&gt;
　先の例では, &amp;lt;math&amp;gt;v_1, \cdots, v_6&amp;lt;/math&amp;gt; を計算し, &amp;lt;math&amp;gt;\lambda_6=1, \lambda_5=0, \cdots, \lambda_1=0&amp;lt;/math&amp;gt; と初期化した後, &amp;lt;math&amp;gt;\lambda_1\gets\lambda_1+\lambda_6\cdot(1/v_5),&amp;lt;/math&amp;gt;&amp;lt;math&amp;gt;\lambda_5\gets\lambda_5+\lambda_6\cdot(-v_6/v_5),&amp;lt;/math&amp;gt;&amp;lt;math&amp;gt;\lambda_4\gets\lambda_4+\lambda_5\cdot(0.5/v_5),&amp;lt;/math&amp;gt;&amp;lt;math&amp;gt;\lambda_3\gets\lambda_3+\lambda_4\cdot1,\lambda_2\gets\lambda_2+\lambda_4\cdot1&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\lambda_1\gets\lambda_1+\lambda_3\cdot(2v_1)&amp;lt;/math&amp;gt; となる. 最終的に &amp;lt;math&amp;gt;\lambda_1, \lambda_2\, &amp;lt;/math&amp;gt; に &amp;lt;math&amp;gt;(\partial f/\partial x)(3,4), (\partial f/\partial y)(3,4)&amp;lt;/math&amp;gt; の値が計算される. 同じ条件の下で, TDADの手間は &amp;lt;math&amp;gt;\mbox{O}(r)\, &amp;lt;/math&amp;gt;である. 1回の計算で勾配の値は全て計算できることに注意. &lt;br /&gt;
&lt;br /&gt;
　&amp;lt;math&amp;gt;n\,&amp;lt;/math&amp;gt; 変数 &amp;lt;math&amp;gt;m\,&amp;lt;/math&amp;gt; 値関数 &amp;lt;math&amp;gt;[f_1(x_1,\cdots,x_n),\cdots,f_m(x_1,\cdots,x_n)]^{\top}&amp;lt;/math&amp;gt; について, 全成分の値を計算するのに延べ &amp;lt;math&amp;gt;r\,&amp;lt;/math&amp;gt; 回の基本演算を実行したとする. ヤコビ行列 &amp;lt;math&amp;gt;J=(\partial f_i/\partial x_j)\, &amp;lt;/math&amp;gt; の列の線形結合はBUADで, 行についてはTDADで &amp;lt;math&amp;gt;\mbox{O}(r)\, &amp;lt;/math&amp;gt;の手間で計算できる. 全成分については BUADでは &amp;lt;math&amp;gt;\mbox{O}(nr)\, &amp;lt;/math&amp;gt;, TDAD では &amp;lt;math&amp;gt;\mbox{O}(mr)\, &amp;lt;/math&amp;gt; である. &lt;br /&gt;
&lt;br /&gt;
　実際には, 基本演算は表1に限らず, 代入文(やその列)を一つの基本演算とみなしてよい. また, プログラム中に条件分岐があっても, 与えられた入力値に関する関数の合成は上記の形で書けるから, ADを適用できる. ただし, 分岐の境目では, ADの結果は, 真の偏導関数値と異なることがある. たとえば, &amp;lt;math&amp;gt;\mbox{if(x=1.0)}\{\mbox{y=x*x}\}\mbox{else}\{\mbox{y=1.0}\}\, &amp;lt;/math&amp;gt;の様なプログラムを自動微分すると, &amp;lt;math&amp;gt;x\,&amp;lt;/math&amp;gt; の値が1.0 のときには不具合が起こりうるので注意が必要である. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] M. Berz, C. Bischof, G. Corliss and A. Griewank, ''Computational Differentiation: Techniques, Applications, and Tools'', SIAM, 1996.&lt;br /&gt;
&lt;br /&gt;
[2]久保田光一, 伊理正夫, 『アルゴリズムの自動微分と応用』, コロナ社, 1998.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%87%B8%E8%A7%A3%E6%9E%90%E3%80%8B&amp;diff=4778</id>
		<title>《凸解析》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%87%B8%E8%A7%A3%E6%9E%90%E3%80%8B&amp;diff=4778"/>
		<updated>2007-07-14T15:18:29Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【とつかいせき (convex analysis)】'''&lt;br /&gt;
&lt;br /&gt;
　[[凸解析]] (convex analysis) は，ベクトル空間における凸集合あるいはベクトル空間上で定義された凸関数に関する諸性質を取り扱うものであり，数理計画の基礎理論として非常に重要な役割を果たしている． &lt;br /&gt;
&lt;br /&gt;
　次の性質をもつ空間 &amp;lt;math&amp;gt;\mathbf{R}^n\, &amp;lt;/math&amp;gt; の部分集合 &amp;lt;math&amp;gt;S \subseteq \mathbf{R}^n\, &amp;lt;/math&amp;gt; を[[凸集合]] (convex set) と呼ぶ．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;x, \, y \in S, \ \alpha \in (0,1) &lt;br /&gt;
\ \Longrightarrow \ \alpha x + (1-\alpha) y \in S\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
特に，有限個の半空間の共通部分として表される凸集合を凸多面体と呼ぶ． &lt;br /&gt;
&lt;br /&gt;
　空間 &amp;lt;math&amp;gt;\mathbf{R}^n\, &amp;lt;/math&amp;gt; 上で定義された拡張実数値関数 &amp;lt;math&amp;gt;f : \mathbf{R}^n \to [-\infty,+\infty]\, &amp;lt;/math&amp;gt; に対して，そのエピグラフを&amp;lt;math&amp;gt;\mbox{epi}\, f := \{ (x,\mu) \in \mathbf{R}^{n+1} \, | \,f(x) \le \mu \}\, &amp;lt;/math&amp;gt;と定義し，&amp;lt;math&amp;gt;\mbox{epi}\, f\, &amp;lt;/math&amp;gt; が凸集合であるような関数 &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; を[[凸関数]] (convex function) と呼ぶ．ここで，関数 &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; の値域に &amp;lt;math&amp;gt;\pm \infty\, &amp;lt;/math&amp;gt; が含まれていることは重要である．考察の対象とする関数をこのように拡張することにより，最適化問題に関連する諸性質を統一的に記述することが可能となる．例えば，実数値凸関数 &amp;lt;math&amp;gt;h : \mathbf{R}^n \to \mathbf{R}\, &amp;lt;/math&amp;gt; を凸集合 &amp;lt;math&amp;gt;S \subseteq \mathbf{R}^n\, &amp;lt;/math&amp;gt; 上で最小化する制約つき最適化問題は，拡張実数値関数 &amp;lt;math&amp;gt;\hat h : \mathbf{R}^n \to (-\infty,+\infty]\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;\hat h(x) = h(x) \ (x \in S\, &amp;lt;/math&amp;gt; のとき&amp;lt;math&amp;gt;)\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\ = + \infty \ (x \not\in S\, &amp;lt;/math&amp;gt; のとき&amp;lt;math&amp;gt;)\, &amp;lt;/math&amp;gt; と定義することにより，見かけ上，凸関数 &amp;lt;math&amp;gt;\hat h\, &amp;lt;/math&amp;gt; を制約なしで最小化する問題として表すことができる．また，&amp;lt;math&amp;gt;f(x) = -\infty\, &amp;lt;/math&amp;gt; となる点 &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; が存在せず，さらに恒等的に &amp;lt;math&amp;gt;f(x) \equiv +\infty\, &amp;lt;/math&amp;gt; ではないようなものを，特に真凸関数といい，集合 &amp;lt;math&amp;gt;\mbox{dom}\, f := \{ x \, | \, f(x) &amp;lt; +\infty \}\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; の実効定義域あるいは単に定義域と呼ぶ．真凸関数は理論的にも実際的にも意味のある凸関数のクラスと考えることができる．なお，&amp;lt;math&amp;gt;f(x) = -\infty\, &amp;lt;/math&amp;gt; となる &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; が存在しないような関数 &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; に対しては&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;x, \, y \in \mbox{dom} \, f, \ \alpha \in (0,1)&lt;br /&gt;
\ \Longrightarrow \ f(\alpha x + (1-\alpha)y)&lt;br /&gt;
\le \alpha f(x) + (1-\alpha) f(y)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を凸関数の定義とすることもできる．さらに，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;x, \, y \in \mbox{dom} \, f, &lt;br /&gt;
\ x \ne y, \ \alpha \in (0,1)&lt;br /&gt;
\ \Longrightarrow \ f(\alpha x + (1-\alpha)y)&lt;br /&gt;
&amp;lt; \alpha f(x) + (1-\alpha) f(y)\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
であるとき，&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; を狭義凸関数という．明らかに，狭義凸関数は凸関数である．文献 [1,2,3,4]  に凸関数や凸集合の様々な性質に関する詳しい説明がある．&lt;br /&gt;
&lt;br /&gt;
　次の性質をもつ集合 &amp;lt;math&amp;gt;C \subseteq \mathbf{R}^n\, &amp;lt;/math&amp;gt; を錐と呼ぶ．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;x \in C, \ \alpha \ge 0 \ \Longrightarrow \ \alpha x \in C\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
特に，凸集合であるような錐を[[凸錐]] (convex cone) という．最適化理論においては，凸錐はしばしば方向ベクトルの集合を表し，特に最適性条件の導出に際して重要である [4]．凸錐 &amp;lt;math&amp;gt;C \subseteq \mathbf{R}^n\, &amp;lt;/math&amp;gt; に対して，集合 &amp;lt;math&amp;gt;\{ y \in \mathbf{R}^n \, | \,x^{\top}y \le 0 \ \forall x \in C \}\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;C\, &amp;lt;/math&amp;gt; の極錐と呼び，&amp;lt;math&amp;gt;C^*\, &amp;lt;/math&amp;gt; と表す．与えられたベクトル &amp;lt;math&amp;gt;a^1, \dots, a^m \in \mathbf{R}^n\, &amp;lt;/math&amp;gt; に対して定義される凸錐 &amp;lt;math&amp;gt;\textstyle C = \{ x \in \mathbf{R}^n \, | \, x={\sum}_{i=1}^m \gamma_i a^i,\  \gamma_i \ge 0, \ i=1,\dots,m \}\, &amp;lt;/math&amp;gt; の極錐は &amp;lt;math&amp;gt;C^* = \{ y \in \mathbf{R}^n \, | \, y^{\top}a^i \le 0, \, i=1,\dots,m \}\, &amp;lt;/math&amp;gt; で与えられ，さらに &amp;lt;math&amp;gt;C = (C^*)^*\, &amp;lt;/math&amp;gt; が成り立つ．これは，&amp;lt;math&amp;gt;b \in C\, &amp;lt;/math&amp;gt;，すなわち  &amp;lt;math&amp;gt;\textstyle \sum_{i=1}^m \gamma_i a^i = b\, &amp;lt;/math&amp;gt; を満たす &amp;lt;math&amp;gt;\gamma_i \ge 0, \, i=1,\dots,m,\, &amp;lt;/math&amp;gt; が存在することと，&amp;lt;math&amp;gt;b \not\in C\, &amp;lt;/math&amp;gt;，すなわち &amp;lt;math&amp;gt;y^{\top} b &amp;gt; 0\, &amp;lt;/math&amp;gt; を満たすベクトル &amp;lt;math&amp;gt;y \in C^*\, &amp;lt;/math&amp;gt; が存在することの，どちらか一方のみが成立することを意味している．これはファーカスの定理と呼ばれている．このように，２つの条件の一方のみが必ず成り立つことを保証する定理は，一般に[[二者択一定理]] (theorem of the alternative) と呼ばれ，最適性条件の導出に有用である [2]．&lt;br /&gt;
&lt;br /&gt;
　真凸関数 &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; に対して，次式を満足するベクトル &amp;lt;math&amp;gt;\xi \in \mathbf{R}^n\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; の &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; における[[劣勾配]] (subgradient) と呼ぶ．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;f(y) \ge f(x) + \xi^{\top}(y-x) \quad\quad \forall \, y \in \mathbf{R}^n\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(1) \,&amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
真凸関数はその実効定義域 &amp;lt;math&amp;gt;\mbox{dom} \, f\, &amp;lt;/math&amp;gt; の任意の相対的内点において，少なくとも１つの劣勾配をもつ．特に，凸関数 &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; が点 &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; において微分可能ならば，&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; の &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; における劣勾配は唯一存在し，通常の勾配 &amp;lt;math&amp;gt;\nabla f(x)\, &amp;lt;/math&amp;gt; に等しい．しかし，&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; が点 &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; において微分可能でないときには劣勾配は無数に存在する．一般に，&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; の &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; における劣勾配全体の集合は &amp;lt;math&amp;gt;\partial f(x)\, &amp;lt;/math&amp;gt; と表される．劣勾配の定義 (1) より，&amp;lt;math&amp;gt;0 \in \partial f(x)\, &amp;lt;/math&amp;gt; は点 &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; が凸関数の最小点であるための必要十分条件であることは容易に確かめられる．劣勾配の概念は非凸関数に対しても拡張され，微分不可能最適化において基本的な役割を果たしている [1,3,4]．&lt;br /&gt;
&lt;br /&gt;
　真凸関数 &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; に対して，次式で定義される真凸関数 &amp;lt;math&amp;gt;f^*\, &amp;lt;/math&amp;gt; を &amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt; の[[共役関数]] (conjugate function) という．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;f^*(\xi) := \sup_{x \in \mathbf{R}^n} \{ \, \xi^{\top} x - f(x) \, \}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(2) \,&amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
いま，&amp;lt;math&amp;gt;\partial f\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;\partial f^*\, &amp;lt;/math&amp;gt; を点-集合写像とみなせば，&amp;lt;math&amp;gt;\partial f\, &amp;lt;/math&amp;gt; と &amp;lt;math&amp;gt;\partial f^*\, &amp;lt;/math&amp;gt; は互いに逆写像の関係にあり，さらに，&amp;lt;math&amp;gt;\partial f^*(\xi)\, &amp;lt;/math&amp;gt; の任意の要素 &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; は共役関数 &amp;lt;math&amp;gt;f^*\, &amp;lt;/math&amp;gt; の定義 (2) の右辺の最大を与える．すなわち，次の関係が成立する．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\xi \in \partial f(x) \quad \Longleftrightarrow \quad&lt;br /&gt;
x \in \partial f^*(\xi)  \quad \Longleftrightarrow \quad &lt;br /&gt;
f(x) + f^*(\xi) = \xi^{\top} x\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
共役関数の概念は最適化問題に対する双対理論において特に重要である [3,4].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1]  福島雅夫,『非線形最適化の基礎』, 朝倉書店,  2001.&lt;br /&gt;
&lt;br /&gt;
[2]  O.L. Mangasarian, ''Nonlinear Programming'', McGraw-Hill, 1969; (reprint, SIAM, 1994).&lt;br /&gt;
&lt;br /&gt;
[3]  R.T. Rockafellar, ''Convex Analysis'', Princeton University Press, 1970.&lt;br /&gt;
&lt;br /&gt;
[4]  R.T. Rockafellar and R.J.B. Wets, ''Variational Analysis'',  Springer, 1998.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%A7%E8%A6%8F%E6%A8%A1%E5%95%8F%E9%A1%8C%E3%81%AE%E5%88%86%E8%A7%A3%E6%B3%95%E3%80%8B&amp;diff=4777</id>
		<title>《大規模問題の分解法》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%A7%E8%A6%8F%E6%A8%A1%E5%95%8F%E9%A1%8C%E3%81%AE%E5%88%86%E8%A7%A3%E6%B3%95%E3%80%8B&amp;diff=4777"/>
		<updated>2007-07-14T15:06:48Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【だいきぼもんだいのぶんかいほう (decomposition method for large-scale problems)】'''&lt;br /&gt;
&lt;br /&gt;
　現実世界で発生する複雑な問題を最適化問題としてモデル化すると，非常に多くの変数や制約条件をもつ大規模問題になることが多い．計算機を用いてその解を求める場合，目的関数や制約条件式がすべて線形であっても，変数や制約条件の数が増えるとともに計算時間は急激に増加する．また，それらの一部に非線形の項が含まれると，問題の解きにくさは飛躍的に増大する．そこで，大規模問題を直接解くのではなく，一部の変数や制約条件だけから成る小規模な，または，解きやすい部分問題を逐次解くことにより，もとの問題の解を得ようとするアルゴリズムが提案されている．それらを一般に[[大規模問題の分解法]] (decomposition method for large-scale problems) と呼ぶ [3]．&lt;br /&gt;
&lt;br /&gt;
　現実の大規模問題は，しばしば特徴的なブロック構造をもつ．たとえば，&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個の比較的独立な部分から成るシステムが共通の変数 &amp;lt;math&amp;gt;x_{0}\, &amp;lt;/math&amp;gt;を含む場合は，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\begin{array}{llrll}&lt;br /&gt;
    \mbox{min.} &amp;amp; f_{0}(x_{0}) + &amp;amp; \sum_{j=1}^{n} f_{j}(x_{j})\\&lt;br /&gt;
    \mbox{s. t.} &amp;amp; g_{0}(x_{0})  &amp;amp; &amp;amp; \leq 0, \\&lt;br /&gt;
                 &amp;amp; g_{j}(x_{0}) + &amp;amp; h_{j}(x_{j}) &amp;amp; \leq 0  &amp;amp; &lt;br /&gt;
                                         (j = 1, \ldots, n), &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(1) \,&amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
という最適化問題が得られる．この問題は，変数 &amp;lt;math&amp;gt;x_{0}\, &amp;lt;/math&amp;gt; を一時的に固定すると，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\mbox{min.} \quad f_{j}(x_{j}) \quad &lt;br /&gt;
  \mbox{s. t.} \quad g_{j}(x_{0}) + h_{j}(x_{j}) \leq 0, &lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(2) \,&amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
という &amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; 個の部分問題に分解される．[[ベンダース分解法]] (Benders decomposition method) はこのような性質を利用しており，関数 &amp;lt;math&amp;gt;f_{j}\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;h_{j}\, &amp;lt;/math&amp;gt; が線形ならば，有限回の反復でもとの問題の解に到達できることが知られている．さらに，分解された部分問題はたがいに独立であり，それらは比較的大きい（粒度が粗い）問題となるため， MIMD (multiple instruction stream multiple data stream) 型の並列計算機で効率よく実行できる．&lt;br /&gt;
&lt;br /&gt;
　また，システム全体にまたがる付加的な制約条件が存在する場合は，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\begin{array}{lrll}&lt;br /&gt;
    \mbox{min.} &amp;amp; f_{0}(x_{0}) + \sum_{j=1}^{n} f_{j}(x_{j}) &amp;amp;         &amp;amp; \\&lt;br /&gt;
    \mbox{s. t.} &amp;amp; g_{0}(x_{0}) + \sum_{j=1}^{n} g_{j}(x_{j}) &amp;amp; \leq 0, \\&lt;br /&gt;
                 &amp;amp;                             h_{j}(x_{j})   &amp;amp; \leq 0  &amp;amp; (j = 1, \ldots, n),  &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(3) \,&amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
という最適化問題が得られるが，&amp;lt;math&amp;gt;g_{j}\, &amp;lt;/math&amp;gt; を含む制約条件をラグランジュ緩和により目的関数に組み込み, さらに変数 &amp;lt;math&amp;gt;x_0\, &amp;lt;/math&amp;gt; を一時的に固定すると, 問題 (2) に類似した&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt; 個の独立な部分問題に分解される．とくにすべての関数が線形ならば，問題 (3) は部分問題の解を用いて効率的に解けることが知られており，[[ダイツィク・ウルフ分解法]] (Dantzig-Wolfe decomposition method) と呼ばれている．&lt;br /&gt;
&lt;br /&gt;
　一方，大規模で複雑な問題から取り扱いやすい構造をもつ部分のみを抽出して部分問題を構成し，これを逐次解くことによりもとの問題の解を得ようとする方法は，分割法 (splitting method) と呼ばれている．分割法は，問題 (1) や (3) のようなブロック構造をもたない問題にも適用可能である．また，並列処理可能な部分問題を構成すれば，それらはしばしば小規模な（粒度の細かい）問題となり，SIMD (single instruction stream multiple data stream) 型の大規模並列計算機を用いて効率的に実行できる．&lt;br /&gt;
&lt;br /&gt;
　分割法は，線形方程式に対する反復法として，線形代数の分野において古くから研究されている．行列 &amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt; とベクトル &amp;lt;math&amp;gt;q\, &amp;lt;/math&amp;gt; により定義される線形方程式&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;M x + q = 0\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
に対して，条件 &amp;lt;math&amp;gt;M = B + C\, &amp;lt;/math&amp;gt; を満たす行列 &amp;lt;math&amp;gt;B\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;C\, &amp;lt;/math&amp;gt; を選び，方程式&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
B x + C x^{(k)} + q = 0 &lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(4) \,&amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の解を &amp;lt;math&amp;gt;x^{(k+1)}\, &amp;lt;/math&amp;gt; とおくことにより点列 &amp;lt;math&amp;gt;\{ x^{(k)} \}\, &amp;lt;/math&amp;gt; を生成する方法は，[[行列分割法]] (matrix splitting method) と呼ばれる．行列 &amp;lt;math&amp;gt;B\, &amp;lt;/math&amp;gt; を (ブロック) 対角行列に選べば方程式 (4) は並列的に解けるので，大規模問題に対する効率的な解法を得る．行列分割法は，線形相補性問題や線形変分不等式問題にも拡張できる．&lt;br /&gt;
&lt;br /&gt;
　一般の凸計画問題に対しても，分割法に基づくアルゴリズムを構成できる．凸計画問題は，最適性条件を考慮すると，ある写像 &amp;lt;math&amp;gt;F: \mathbf{R}^{n} \rightarrow \mathbf{R}^{n}\, &amp;lt;/math&amp;gt; を用いて&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
  \mbox{find} \quad x \in \mathbf{R}^{n} \quad &lt;br /&gt;
  \mbox{s. t.} \quad 0 \in F(x), &lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(5) \,&amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
と記述される．条件 &amp;lt;math&amp;gt;F = G + H\, &amp;lt;/math&amp;gt; を満たす写像 &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;H\, &amp;lt;/math&amp;gt; を選び，部分問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;&lt;br /&gt;
\mbox{find} \quad x \in \mathbf{R}^{n} \quad &lt;br /&gt;
  \mbox{s. t.} \quad 0 \in G(x) + H(x^{(k)}), &lt;br /&gt;
\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(6) \,&amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の解を &amp;lt;math&amp;gt;x^{(k+1)}\, &amp;lt;/math&amp;gt; とする反復法は，[[作用素分割法]] (operator splitting method) と呼ばれる．写像 &amp;lt;math&amp;gt;G\, &amp;lt;/math&amp;gt; が分離可能ならば部分問題 (6) は並列的に解けるので，大規模な凸計画問題に対する効率的な解法が得られる．&lt;br /&gt;
&lt;br /&gt;
　問題 (5) に対する有力な反復法に，[[近接点法]] (proximal point method) がある．近接点法では，単調非減少な正定数の列 &amp;lt;math&amp;gt;\{ \lambda^{(k)} \}\, &amp;lt;/math&amp;gt; を定め，問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\mbox{find} \quad x \in \mathbf{R}^{n} \quad &lt;br /&gt;
\mbox{s. t.} \quad ( x^{(k)} - x ) \, / \, \lambda^{(k)} \in F(x),\, &amp;lt;/math&amp;gt; &lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の解を &amp;lt;math&amp;gt;x^{(k+1)}\, &amp;lt;/math&amp;gt; とおく．作用素分割法や近接点法は，一般的な最適化問題のクラスである変分不等式問題にも拡張できる．また，これらの方法を組合せることによりさまざまな[[並列アルゴリズム (数理計画問題の)|並列アルゴリズム]](parallel algorithm (nonlinear programming)) を構成できることが知られている．このような考え方に基づく並列アルゴリズムについては，参考文献 [1, 2] に詳しい解説がある．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1]  D. P. Bertsekas and J. N. Tsitsiklis, ''Parallel and Distributed Computation: Numerical Methods'', Prentice-Hall, 1989.  &lt;br /&gt;
&lt;br /&gt;
[2] Y. Censor and S. A. Zenios, ''Parallel Optimization: Theory, Algorithms, and Applications'', Oxford University Press, 1997.  &lt;br /&gt;
&lt;br /&gt;
[3] J. F. Shapiro, ''Mathematical Programming: Structures and Algorithms'', John Wiley &amp;amp; Sons, 1979.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%9B%B8%E8%A3%9C%E6%80%A7%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4776</id>
		<title>《相補性問題》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E7%9B%B8%E8%A3%9C%E6%80%A7%E5%95%8F%E9%A1%8C%E3%80%8B&amp;diff=4776"/>
		<updated>2007-07-14T14:50:13Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【そうほせいもんだい (complementarity problem)】'''&lt;br /&gt;
&lt;br /&gt;
　[[相補性問題]](complementarity problem)[1] とは，連続変数 &amp;lt;math&amp;gt;x=(x_1,\dots,x_n)\, &amp;lt;/math&amp;gt; と同じ次元をもつベクトル値関数 &amp;lt;math&amp;gt;F(x)=(F_1(x),\dots,F_n(x))\, &amp;lt;/math&amp;gt; に対して，次式を満たす &amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt; を求める問題である．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;x_i \ge 0, \ F_i(x) \ge 0, \ x_i F_i(x) = 0&lt;br /&gt;
\quad (i=1,\dots,n)&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
この問題において，すべての&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;に対して&amp;lt;math&amp;gt;x_{i}\geq 0\, &amp;lt;/math&amp;gt;かつ&amp;lt;math&amp;gt;F_{i}(x)\geq 0\, &amp;lt;/math&amp;gt;となる点&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;の集合を実行可能集合と呼ぶ．とくに，すべての&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;に対して狭義の不等式を満たす点&amp;lt;math&amp;gt;x\, &amp;lt;/math&amp;gt;を狭義実行可能点と呼ぶ．また，すべての&amp;lt;math&amp;gt;i\, &amp;lt;/math&amp;gt;に対して，&amp;lt;math&amp;gt;x_{i}=0\, &amp;lt;/math&amp;gt;または&amp;lt;math&amp;gt;F_{i}(x)=0\, &amp;lt;/math&amp;gt;が成り立つことを，相補条件と呼ぶ．相補性問題は，実行可能集合の中から相補条件が成り立つ点を求める問題と考えることができる．相補性問題の中で，&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt; がアフィン関数，つまり&amp;lt;math&amp;gt;n\times n\, &amp;lt;/math&amp;gt;行列&amp;lt;math&amp;gt;M\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;次元ベクトル&amp;lt;math&amp;gt;q\, &amp;lt;/math&amp;gt;を用いて&amp;lt;math&amp;gt;F(x)=Mx+q\, &amp;lt;/math&amp;gt;と表されるものを，[[線形相補性問題]](linear complementarity problem)と呼ぶ．また，それ以外の問題を[[非線形相補性問題]](nonlinear complementarity problem)という．相補性問題を含むより広いクラスの問題として，[[変分不等式問題]](variational inequality problem)がある．変分不等式問題は，与えられた閉凸集合&amp;lt;math&amp;gt;S \subseteq \mathbf{ R}^n&amp;lt;/math&amp;gt;に対して， 次の不等式を満たす点&amp;lt;math&amp;gt;x\in S\, &amp;lt;/math&amp;gt;を求める問題である．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\langle F(x), y-x \rangle \geq 0,\;\;\;\forall y\in S&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
ここで，&amp;lt;math&amp;gt;\langle \cdot, \cdot \rangle\, &amp;lt;/math&amp;gt;はベクトルの内積をあらわす．特に&amp;lt;math&amp;gt;S=\mathbf{ R}^n_{+}:=\{x\in \mathbf{ R}^n\;|\; x_{i}\geq 0 \quad (i=1,\dots,n)\}\, &amp;lt;/math&amp;gt;で与えられた変分不等式問題は相補性問題に帰着できる．また，&amp;lt;math&amp;gt;\mathbf{ R}^n_{+}\, &amp;lt;/math&amp;gt;を一般の凸錘に拡張した一般相補性問題，対称半正定値行列空間に拡張した半正定値相補性問題と呼ばれる問題もある．&lt;br /&gt;
&lt;br /&gt;
　[[2次計画問題]](quadratic programming problem)のカルーシュ・キューン・タッカー条件は，線形相補性問題としてあらわされる．また，非線形計画問題のカルーシュ・キューン・タッカー条件は，非線形相補性問題としてあらわされる．このため，相補性問題に対する効率的な方法を考えることは数理計画において重要な役割をはたす．また，経済均衡問題や交通流均衡問題などの多くの[[均衡問題 (ゲーム理論における)|均衡問題]](equilibrium problem)が，相補性問題として定式化できることが知られている．最近では，オプション価格の算出，摩擦を有する物理現象のモデル化などにも有用であることが報告されている．&lt;br /&gt;
&lt;br /&gt;
　このように相補性問題は，オペレーションズリサーチにおいて重要な問題であるが，その解の計算は必ずしも容易ではない．このことは，一般の線形相補性問題がNP完全問題であることからもわかる．そのため，相補性問題に対しては，解きやすい問題のクラスの解明とそれらに対する解法の研究が進められている．関数&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;が，凸性と密接な関係のある単調関数であるとき，相補性問題は比較的容易な問題となる．ここで，&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;が単調であるとは，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\langle F(x)-F(y),x-y \rangle \geq 0, \;\; \forall x, y \in \mathbf{ R}^n&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
が成り立つことである．制約が1次関数で与えられた凸計画問題のカルーシュ・キューン・タッカー条件は，単調関数で定義された非線形相補性問題であらわされる．また，&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;が単調関数で相補性問題が狭義実行可能点を持つとき，相補性問題の解集合は空でない有界凸集合になることが知られている．これまでに，&amp;lt;math&amp;gt;F\, &amp;lt;/math&amp;gt;が単調な相補性問題に対して，様々な解法が提案されている．初期には，線形相補性問題に対して，[[不動点アルゴリズム]](fixed point algorithm)の一種であるレムケ法が提案され，そのアルゴリズムが実用化されてきた [2]．近年では，相補性問題を等価な方程式系や最適化問題などに再定式化して解くアルゴリズムの有効性が示されている．特に，等価な方程式系を近似した方程式をニュートン法で逐次的に解く内点法タイプのアルゴリズム [3] が理論的にも実用的にも速く解に収束することが報告されている．&lt;br /&gt;
&lt;br /&gt;
　相補性問題や変分不等式問題を制約条件に含む数理計画問題を[[均衡制約計画問題]](mathematical program with equilibrium constraints)[4] と呼ぶ．スタッケルベルグ・ゲームや[[2レベル計画問題]](bilevel programming problem)は，下位レベルの問題をそのカルーシュ・キューン・タッカー条件に置き換えることによって，均衡制約計画問題に帰着することができる．均衡制約計画問題では，通常の制約想定が成り立たないことが知られている．このため，均衡制約計画問題は，一般の非線形計画問題に対するアルゴリズムで解が得られる保証がない困難な問題である．これまでに，均衡制約計画問題に対して内点法や逐次2次計画法を拡張する試みがなされている．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] J.-S. Pang, &amp;quot;Complementarity Problems,&amp;quot; in ''Handbook of Global Optimization'', R. Horst and P. Pardalos, eds., Kluwer Academic Publishers, 1994.&lt;br /&gt;
&lt;br /&gt;
[2] 小島政和, 『相補性と不動点』, 産業図書, 1981.&lt;br /&gt;
&lt;br /&gt;
[3] M. Kojima, N. Megiddo, T. Noma and A. Yoshise, ''A Unified Approach to Interior Point Algorithms for Linear Complementarity Problems'', Springer-Verlag, 1991.&lt;br /&gt;
&lt;br /&gt;
[4] Z.-Q. Luo, J.-S. Pang and D. Ralph, ''Mathematical Programs with Equilibrium Constraints'', Cambridge University Press, 1996.&lt;br /&gt;
&lt;br /&gt;
[5] 福島雅夫,『非線形最適化の基礎』, 朝倉書店, 2001.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%A7%E5%9F%9F%E7%9A%84%E6%9C%80%E9%81%A9%E5%8C%96%E3%80%8B&amp;diff=4775</id>
		<title>《大域的最適化》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%A4%A7%E5%9F%9F%E7%9A%84%E6%9C%80%E9%81%A9%E5%8C%96%E3%80%8B&amp;diff=4775"/>
		<updated>2007-07-14T14:47:39Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【たいいきてきさいてきか (global optimization)】'''&lt;br /&gt;
&lt;br /&gt;
　ユークリッド空間&amp;lt;math&amp;gt;\mathbf{R}^n\, &amp;lt;/math&amp;gt;上で定義された連続な実数値関数&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;を[[目的関数]]とし，&amp;lt;math&amp;gt;\mathbf{R}^n\, &amp;lt;/math&amp;gt;の閉部分集合&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;を[[実行可能集合]]とする[[最適化問題]]:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
\mbox{min.} &amp;amp; f (\boldsymbol{x})\\&lt;br /&gt;
\mbox{s. t.} &amp;amp; \boldsymbol{x} := (x_1, \ldots, x_n) \in D, &lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の[[大域的最適解]]，つまり&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;f(\boldsymbol{x}^*) \leq f(\boldsymbol{x}), \quad \forall\, \boldsymbol{x} \in D,\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を満足する&amp;lt;math&amp;gt;\boldsymbol{x}^* \in D\, &amp;lt;/math&amp;gt;を求める方法を[[大域的最適化]]という．目的関数&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;と実行可能集合&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;が共に凸性を満たす[[凸計画問題]]であれば，局所的な最適化によって&amp;lt;math&amp;gt;\boldsymbol{x}^*\, &amp;lt;/math&amp;gt;を求めることができる．また，凸性を満たさなくとも，[[分数計画問題]](fractional programming problem)や[[幾何計画問題]](geometric programming problem)の一部は任意の[[局所的最適解]]で大域的にも最適となる．したがって，大域的最適化が本質的な意味をもつのは，値が異なる複数の局所的最適解をもつ[[非凸計画問題]]に対してであり，これを多極値大域的最適化問題(multiextremal global optimization problem)と呼ぶ．例えば，&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;が凹関数で&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;が凸多面体の凹最小化問題(concave minimization problem)の場合，局所的最適解は一般に&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;の複数の端点に現われる．しかし，端点の数は膨大であり，その中から大域的に最適なものを見つけだすのは容易な作業でない．実際，この単純な例でさえ最悪計算量の上では[[NP困難]]であることが知られている．そのため，現段階で一般の多極値大域的最適化問題を解決する有効な手段はなく，[[モンテカルロ法]](Monte Carlo method)などのヒューリスティクスが唯一現実的なアプローチとなっている [2]．&lt;br /&gt;
&lt;br /&gt;
　このように困難な問題クラスではあるが，個々の問題の中には，その構造を利用することで現実的な計算時間のうちに大域的最適解の求められるものも少なくない [1]．その代表例が，実は上にも述べた凹最小化問題である:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
\mbox{min.} &amp;amp; f(\boldsymbol{x}) \\&lt;br /&gt;
\mbox{s. t.} &amp;amp; \boldsymbol{x} \in D := \{\boldsymbol{x} \in \mathbf{R}^n \mid \mbox{A} \boldsymbol{x} \geq \boldsymbol{b}\}.&lt;br /&gt;
\end{array}\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
ここで，&amp;lt;math&amp;gt;\mbox{A}\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;m \times n\, &amp;lt;/math&amp;gt;行列で&amp;lt;math&amp;gt;\boldsymbol{b}\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;m\, &amp;lt;/math&amp;gt;次ベクトル，&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;は凹関数(concave function)，つまり&amp;lt;math&amp;gt;-f\, &amp;lt;/math&amp;gt;が[[凸関数]]である．この非凸計画問題を大域的に最適化するアルゴリズムとして，凹性カット法(concavity-cut method)，外部近似法(outer approximation method)，[[分枝限定法]](branch-and-bound method)などがある [3]．&lt;br /&gt;
&lt;br /&gt;
　凹性カット法は，以下の操作を繰り返し，&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;から大域的最適解以外の実行可能解をすべて除去しようとする方法である．局所的最適解を与える&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;の端点&amp;lt;math&amp;gt;\boldsymbol{x}'\, &amp;lt;/math&amp;gt;を見つけ，&amp;lt;math&amp;gt;\boldsymbol{x}'\, &amp;lt;/math&amp;gt;から出る&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;本の稜線ベクトル&amp;lt;math&amp;gt;\boldsymbol{u}^1, \ldots, \boldsymbol{u}^n\, &amp;lt;/math&amp;gt;と，それまでに得られた最も小さな目的関数値&amp;lt;math&amp;gt;f^\circ\, &amp;lt;/math&amp;gt;によって集合&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;V := \{\boldsymbol{x}' + \theta_i \boldsymbol{u}^i \mid \theta_i \geq 0,\;  i = 1, \ldots, n\} \cap &lt;br /&gt;
\{\boldsymbol{x} \in \mathbf{R}^n \mid f(\boldsymbol{x}) = f^\circ\}\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を定義する．端点&amp;lt;math&amp;gt;\boldsymbol{x}'\, &amp;lt;/math&amp;gt;における&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;の値が&amp;lt;math&amp;gt;f^\circ\, &amp;lt;/math&amp;gt;よりも悪ければ，&amp;lt;math&amp;gt;V\, &amp;lt;/math&amp;gt;は丁度&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;個の点から構成されるが，それらを通る&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;次元超平面によって&amp;lt;math&amp;gt;\boldsymbol{x}'\, &amp;lt;/math&amp;gt;と一緒に見込のない実行可能解も&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;から切除する．目的関数&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;が2次の凹関数である[[双線形計画問題]] (bilinear programming problem)に対しては，より大きな領域を切除する方法も考案されている．&lt;br /&gt;
&lt;br /&gt;
　外部近似法も超平面による切除を行うが，凹性カット法と違って1つの実行可能解も失わない．まず，&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;n\, &amp;lt;/math&amp;gt;次元単体や矩形などの単純な凸多面体&amp;lt;math&amp;gt;S \supseteq D\, &amp;lt;/math&amp;gt;で近似し，&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;を&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;上で最小化する．これも凹最小化問題であるが，&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;は端点の数が少ないので，それらの列挙で最小点&amp;lt;math&amp;gt;\boldsymbol{x}'\, &amp;lt;/math&amp;gt;は比較的容易に求められる．この&amp;lt;math&amp;gt;\boldsymbol{x}'\, &amp;lt;/math&amp;gt;が満たさない&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;の制約式の1つ&amp;lt;math&amp;gt;\boldsymbol{a}_i^{\top} \boldsymbol{x} \geq b_i\, &amp;lt;/math&amp;gt;を選び，&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;を&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;S' := S \cap \{\boldsymbol{x} \in \mathbf{R}^n \mid \boldsymbol{a}_i^{\top} \boldsymbol{x} \geq b_i\}\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
に更新して&amp;lt;math&amp;gt;\boldsymbol{x}'\, &amp;lt;/math&amp;gt;と共に実行不可能な領域を切除する．実行可能集合&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;が&amp;lt;math&amp;gt;S\, &amp;lt;/math&amp;gt;の部分集合なので&amp;lt;math&amp;gt;f(\boldsymbol{x}')\, &amp;lt;/math&amp;gt;は大域的最適値の下界値を与えるが，以上の操作を繰り返して &amp;lt;math&amp;gt;\boldsymbol{x}' \in D\, &amp;lt;/math&amp;gt;となれば，&amp;lt;math&amp;gt;\boldsymbol{x}'\, &amp;lt;/math&amp;gt;が大域的最適解である．&lt;br /&gt;
&lt;br /&gt;
　分枝限定法には多くのバリエーションが存在するが，最も効力を発揮するのは目的関数&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;が分離可能な場合である:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;f(\boldsymbol{x}) := \sum_{j=1}^n f_j(x_j).\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
ただし，&amp;lt;math&amp;gt;f_j\, &amp;lt;/math&amp;gt;はすべて凹関数である．実行可能集合&amp;lt;math&amp;gt;D\, &amp;lt;/math&amp;gt;を含む矩形&amp;lt;math&amp;gt;M := \{\boldsymbol{x} \in \mathbf{R}^n \mid l_j \leq x_j \leq u_j,\; j = 1, \ldots, n\}\, &amp;lt;/math&amp;gt;を定義し，これを複数の小さな矩形&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;M^k := \{\boldsymbol{x} \in \mathbf{R}^n \mid l_j^k \leq x_j \leq u_j^k\}, \quad&lt;br /&gt;
k = 1, \ldots, K,\, &amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
に分割していく．基本となる操作は，[[組合せ最適化問題]]に使われる分枝限定法と同様で，まず &amp;lt;math&amp;gt;M^k\, &amp;lt;/math&amp;gt; を選んで&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''限定操作'''　&amp;lt;math&amp;gt;D \cap M^k\, &amp;lt;/math&amp;gt;上における&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;の下界値&amp;lt;math&amp;gt;f'\, &amp;lt;/math&amp;gt;を計算し，その値がそれまでに得られた最も小さな目的関数値&amp;lt;math&amp;gt;f^\circ\, &amp;lt;/math&amp;gt;以上ならば&amp;lt;math&amp;gt;M^k\, &amp;lt;/math&amp;gt;を考察の対象から外す;&lt;br /&gt;
&lt;br /&gt;
'''分枝操作'''　&amp;lt;math&amp;gt;f' &amp;lt; f^\circ\, &amp;lt;/math&amp;gt;ならば，&amp;lt;math&amp;gt;M^k\, &amp;lt;/math&amp;gt;を2つの矩形 &amp;lt;math&amp;gt;M^{k_1}\, &amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;M^{k_2}\, &amp;lt;/math&amp;gt;に分割する&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を繰り返す．効率の鍵を握る下界値&amp;lt;math&amp;gt;f'\, &amp;lt;/math&amp;gt;には，通常&amp;lt;math&amp;gt;(l_j^k, f_j(l_j^k))\, &amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;(u_j^k, f_j(u_j^k))\, &amp;lt;/math&amp;gt;を通るアフィン関数&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&amp;lt;math&amp;gt;g_j(x_j) := \frac{f(u_j^k) - f(l_j^k)}{u_j^k - l_j^k} x_j +&lt;br /&gt;
\frac{u_j^k f(l_j^k) - l_j^k f(u_j^k)}{u_j^k - l_j^k},&lt;br /&gt;
\quad j = 1, \ldots, n,\, &amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を定義し，その和&amp;lt;math&amp;gt;\textstyle g(\boldsymbol{x}) := \sum_{j=1}^n g_j(x_j)\, &amp;lt;/math&amp;gt;の&amp;lt;math&amp;gt;D \cap M^k\, &amp;lt;/math&amp;gt;上における最小値が用いられる．関数&amp;lt;math&amp;gt;g\, &amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;M^k\, &amp;lt;/math&amp;gt;上における&amp;lt;math&amp;gt;f\, &amp;lt;/math&amp;gt;の最も大きな下界値を与える凸関数で，凸包絡関数 (convex envelope function)と呼ばれる．しかし，アフィン関数であるので[[単体法]]や[[内点法]]を使って容易に最小値&amp;lt;math&amp;gt;f'\, &amp;lt;/math&amp;gt;を計算することができる．&lt;br /&gt;
&lt;br /&gt;
　[[DC計画問題]](d.c. programming problem)や[[逆凸計画問題]](reverse convex programming problem)などのより一般的な多極値大域的最適化問題も，凹最小化問題を逐次解くことで処理することができる [2, 3]．&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
        &lt;br /&gt;
[1] H. Konno, P.T. Thach and H. Tuy, ''Optimization on Low Rank Nonconvex Structures'', Kluwer Academic Publishers, 1997.&lt;br /&gt;
&lt;br /&gt;
[2] R. Horst and P.M. Pardalos (eds.), ''Handbook of Global Optimization'', Kluwer Academic Publishers, 1995.&lt;br /&gt;
&lt;br /&gt;
[3] R. Horst and H. Tuy, ''Global Optimization - Deterministic Approaches,'' 3rd ed., Springer-Verlag, 1996.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
	<entry>
		<id>https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%88%B6%E7%B4%84%E4%BB%98%E3%81%8D%E6%9C%80%E9%81%A9%E5%8C%96%E3%80%8B&amp;diff=4774</id>
		<title>《制約付き最適化》</title>
		<link rel="alternate" type="text/html" href="https://orsj-ml.org/orwiki/wiki/index.php?title=%E3%80%8A%E5%88%B6%E7%B4%84%E4%BB%98%E3%81%8D%E6%9C%80%E9%81%A9%E5%8C%96%E3%80%8B&amp;diff=4774"/>
		<updated>2007-07-14T14:39:54Z</updated>

		<summary type="html">&lt;p&gt;220.104.197.230: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''【せいやくつきさいてきか (constrained optimization)】'''&lt;br /&gt;
&lt;br /&gt;
[[制約付き最適化]]とは, &amp;lt;math&amp;gt;n\,&amp;lt;/math&amp;gt;次元ベクトル空間上の連続関数&amp;lt;math&amp;gt;f(x)\,&amp;lt;/math&amp;gt;を適当な(連続)集合上で最適化する問題で一般に次の形で記述される.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\begin{array}{ll}&lt;br /&gt;
\mbox{min}_x &amp;amp; f(x) \\&lt;br /&gt;
\mbox{s. t.} &amp;amp; g_i(x) \le 0 \ (i=1,\ldots, m), &lt;br /&gt;
\ \ \  h_j(x) = 0 \ (j=1,\ldots, l).&lt;br /&gt;
\end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(1)\,&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
代表的な制約付き最適化問題には (A) [[線形計画問題]] (linear programming); (B) [[2次計画問題]] (quadratic programming); (C) 多面体上の凸(非線形)計画問題; (D) [[凸計画問題]] (convex programming); (E) (一般の) [[非線形計画問題]] (nonlinear programming)(&amp;lt;math&amp;gt;g, h, f\,&amp;lt;/math&amp;gt;が一般の非線形関数である場合);があり, 各問題の特徴を生かした解法が研究されている．以下では主として(E)の解法について述べる.&lt;br /&gt;
&lt;br /&gt;
　問題(1)に対する[[ラグランジュ関数]] (Lagrangian function)を次のように定義する. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;L(x,\lambda, \zeta) := f(x) + \sum_{i=1}^m \lambda_i g_i(x) &lt;br /&gt;
+ \sum_{j=1}^l \zeta_j h_j(x).&amp;lt;/math&amp;gt; &amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
解法は, 最適性の十分条件である[[カルーシュ・キューン・タッカー条件]] (Karush-Kuhn-Tucker condition)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\begin{array}{l}&lt;br /&gt;
\nabla_x L(x,\lambda,\zeta)=0,  \\&lt;br /&gt;
\lambda_i g_i(x) = 0 \qquad  (i=1, \ldots, m),  \\&lt;br /&gt;
g_i(x) \leq 0, \ \lambda_i \geq 0 \qquad  (i=1, \ldots, m),  \\&lt;br /&gt;
h_j(x) = 0 \qquad  (j=1, \ldots, l),  &lt;br /&gt;
\end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(2)\,&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;　　　　&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を満たす点(KKT点)を求めることを目的として設計される.探索方向を定め，その方向に適当なステップ幅だけ進むことを繰り返して漸近的にKKT点に収束する点列を生成する. 主な解法としては, (1) 射影勾配法 (gradient projection method)および有効制約法 (active set method); (2) [[ペナルティ関数法]] (penalty function method); (3) [[乗数法 (数理計画の)|乗数法]] (multiplier method); (4) [[逐次2次計画法]] (sequential quadratic programming method); (5) [[内点法]] (interior point method)が知られている. これらの内で実用性が高いとされるのは逐次2次計画法と内点法であるが, 制約領域が多面体である場合は有効制約法も用いられる.現状では, 逐次2次計画法により数百変数程度の中規模問題が, さらに内点法によって数千, 数万変数の大規模問題がある程度解けるようになりつつある. &lt;br /&gt;
&lt;br /&gt;
　射影勾配法は等式制約条件のみからなる最適化問題において, 実行可能領域の集合上に目的関数の勾配を射影してその(逆)方向に進む方法である [2]．有効制約法は不等式制約付き問題に対する射影勾配法の拡張である [2].&lt;br /&gt;
&lt;br /&gt;
　ペナルティ関数法は, 問題を無制約最適化問題に変換して解く方法であり,60年代に研究された[2, 4].この方法では, 目的関数に制約を満たさないことに対するペナルティ項を付加したペナルティ関数 (penalty function) を導入する. ペナルティ項が十分大きければ, ペナルティ関数を最小化することによって問題が近似的に解けるわけである. 典型的なペナルティ関数の一つは  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;F_\rho^{\rm P}(x) := f(x) + \rho_1 \max_i[0, g_i(x)]^2 + \rho_2 \|h(x)\|^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&lt;br /&gt;
&amp;lt;td width=&amp;quot;100&amp;quot; align=&amp;quot;right&amp;quot;&amp;gt;&amp;lt;math&amp;gt;(3)\,&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
である. &amp;lt;math&amp;gt;\rho = (\rho_1,\rho_2)\,&amp;lt;/math&amp;gt;は正のパラメータでこれをペナルティパラメータと呼ぶ. 実際には, 大きな&amp;lt;math&amp;gt;\rho\,&amp;lt;/math&amp;gt;の値に対して&amp;lt;math&amp;gt;F_\rho^{\rm P}\,&amp;lt;/math&amp;gt;をいきなり最適化するのではなく, &amp;lt;math&amp;gt;\rho\,&amp;lt;/math&amp;gt;の値を徐々に大きくしながら&amp;lt;math&amp;gt;F_\rho^{\rm P}\,&amp;lt;/math&amp;gt;を無制約最適化するというステップを繰り返して問題を解く.&amp;lt;math&amp;gt;\rho\,&amp;lt;/math&amp;gt;が大きくなるにつれて&amp;lt;math&amp;gt;F_\rho^{\rm P}\,&amp;lt;/math&amp;gt;が悪条件になり無制約最適化が難しくなることが欠点とされる. 類似の方法で不等式制約を必ず満たすようにペナルティ項を付加したものは, 障壁関数法 (barrier function method)と呼ばれる.&lt;br /&gt;
&lt;br /&gt;
　上に述べたペナルティ法の欠点を克服するために考えられたのが乗数法である [1, 3]. 乗数法は, 基本的には等式制約のみの問題を扱うための解法であり，&amp;lt;math&amp;gt;\rho\,&amp;lt;/math&amp;gt;の他にラグランジュ乗数(Lagrangian multiplier)&amp;lt;math&amp;gt;\zeta_i\,&amp;lt;/math&amp;gt;を導入して次のように定義される[[拡張ラグランジュ関数]] (augumented Lagrangian function)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;F_{(\rho,\zeta)}^{\rm M}(x) :=&lt;br /&gt;
f(x) + \sum \zeta_j h_j(x) + \rho \|h(x)\|^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
の無制約最適化を行って問題を解くものである.&amp;lt;math&amp;gt;\rho\,&amp;lt;/math&amp;gt;が十分大きく&amp;lt;math&amp;gt;\zeta\,&amp;lt;/math&amp;gt;が元の問題のKKT点におけるラグランジュ乗数である時には, KKT点は&amp;lt;math&amp;gt;F_{(\rho,\zeta)}^{\rm M}(x)\,&amp;lt;/math&amp;gt;の極小点になる. そこで，&amp;lt;math&amp;gt;\rho\,&amp;lt;/math&amp;gt;を十分に大きくとった上で, (i)適当な方法で&amp;lt;math&amp;gt;\zeta\,&amp;lt;/math&amp;gt;を推定し, (ii)&amp;lt;math&amp;gt;F_{(\rho,\zeta)}^{\rm M}(x)\,&amp;lt;/math&amp;gt;を無制約最適化する; という2つのステップを繰り返すことで, &amp;lt;math&amp;gt;\rho\,&amp;lt;/math&amp;gt;を更新することなくKKT点に収束する解法が得られる. 不等式制約&amp;lt;math&amp;gt;g_i(x)\leq0\,&amp;lt;/math&amp;gt;を持つ問題に対しては, スラック変数&amp;lt;math&amp;gt;s_i\,&amp;lt;/math&amp;gt;を導入して&amp;lt;math&amp;gt;g_i(x) + s_i^2 = 0\,&amp;lt;/math&amp;gt; として, 等式制約に直した上でこの方法を適用すればよい. 乗数法は70年代に研究された.&lt;br /&gt;
&lt;br /&gt;
　次に70年代後半から80年代に入って研究されたのが，逐次2次計画法である [2, 4, 6].逐次2次計画法では, 点&amp;lt;math&amp;gt;x^k\,&amp;lt;/math&amp;gt;において, ラグランジュ関数&amp;lt;math&amp;gt;L(x,\lambda,\zeta)\,&amp;lt;/math&amp;gt;を2次近似し, 制約条件を1次近似して得られる2次計画問題&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\begin{array}{lll}&lt;br /&gt;
\mbox{min}_x &amp;amp; \frac12 (x - x^k)^{\top} H^k (x-x^k) + (x-x^k)^{\top} \nabla f(x^k) &amp;amp; \\&lt;br /&gt;
\mbox{s. t.} &amp;amp; g_i(x^k) + (x - x^k)^{\top} \nabla g_i(x^k) \le 0 &amp;amp; (i=1,\ldots,m),  \\&lt;br /&gt;
                  &amp;amp; h_j(x^k)+ (x-x^k)^{\top} \nabla h_j(x^k) = 0 &amp;amp; (j=1, \ldots, l),&lt;br /&gt;
\end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
を解いてその方向に進んで次の点&amp;lt;math&amp;gt;x^{k+1}\,&amp;lt;/math&amp;gt;を定める. ここで&amp;lt;math&amp;gt;H^k\,&amp;lt;/math&amp;gt;は&amp;lt;math&amp;gt;x^k\,&amp;lt;/math&amp;gt;における&amp;lt;math&amp;gt;L(x,\lambda,\zeta)\,&amp;lt;/math&amp;gt;の変数&amp;lt;math&amp;gt;x\,&amp;lt;/math&amp;gt;に関するヘッセ行列&amp;lt;math&amp;gt;\nabla_{xx}L\,&amp;lt;/math&amp;gt;あるいはその近似行列である. &lt;br /&gt;
&lt;br /&gt;
　1984年の[[カーマーカー法]](Karmarkar method)の登場以来, 内点法はさまざまな制約付き最適化問題に拡張された[5]. 内点法には主内点法 (primal interior point method)と[[主双対内点法]] (primal-dual interiorpoint method)の2種類がある.主内点法は, 基本的には不等式制約条件のみの最適化問題を取り扱う方法で,不等式制約を厳密に満たす点から出発して対数障壁関数 (log barrier function) &amp;lt;math&amp;gt;\textstyle F_\nu^{\rm B}(x) := f(x) - \nu \sum_i \log[ - g_i(x)]&amp;lt;/math&amp;gt;を逐次最小化して問題を解くものである.各&amp;lt;math&amp;gt;\nu&amp;gt;0&amp;lt;/math&amp;gt;に対して&amp;lt;math&amp;gt;F_\nu^{\rm B}\,&amp;lt;/math&amp;gt;を最小化する点が作る集合を中心曲線(central trajectory)という.&amp;lt;math&amp;gt;\nu\,&amp;lt;/math&amp;gt;を小さくしながら&amp;lt;math&amp;gt;F_\nu^{\rm B}(x)\,&amp;lt;/math&amp;gt;を[[ニュートン法]] によって最小化して中心曲線を追跡して問題を解く. 対数障壁関数は各不等式制約を定数倍する変換に対して不変であるという自然な性質を持つ. &lt;br /&gt;
&lt;br /&gt;
　現在主流となりつつある主双対内点法は, 線形計画問題に対するものを拡張した次のような方法である[7]. この方法では新たに正のパラメータ&amp;lt;math&amp;gt;\nu\,&amp;lt;/math&amp;gt;を導入し,カルーシュ・キューン・タッカー条件(2)の内, &amp;lt;math&amp;gt;\lambda_i g_i(x) = 0\,&amp;lt;/math&amp;gt;と&amp;lt;math&amp;gt;g_i(x) \leq 0\,&amp;lt;/math&amp;gt;を, &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;table align=&amp;quot;center&amp;quot;&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&lt;br /&gt;
&amp;lt;td&amp;gt;&amp;lt;math&amp;gt;\lambda_i s_i = \nu, \ \ \ g_i(x) + s_i = 0,\ \ \ s_i \geq 0\ \ \ (i=1, ..., m)&amp;lt;/math&amp;gt;&amp;lt;/td&amp;gt;&lt;br /&gt;
&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
で置き換え, この条件を満たす点の集合を中心曲線とする. &amp;lt;math&amp;gt;\nu\,&amp;lt;/math&amp;gt;を小さくしながらニュートン法で中心曲線上の点を求めることを繰り返してKKT点に収束する点列を生成する.主双対内点法では，ラグランジュ乗数&amp;lt;math&amp;gt;\lambda_i\,&amp;lt;/math&amp;gt;を導入することでペナルティ関数などの欠点であったKKT点の近くでの悪条件を克服している. &lt;br /&gt;
&lt;br /&gt;
　上述の各解法においてはKKT点や中心曲線上の点への近さを適当なメリット関数(merit function)で測り，各反復ではそれを減少させるようにステップ幅を選ぶ.  メリット関数は探索方向の生成法と並んで解法の設計上重要な要素である. 無制約最小化することで元の制約付き最適化問題のKKT点が得られるような関数を厳密ペナルティ関数(exact penalty function)という. ペナルティ関数(3)で項&amp;lt;math&amp;gt;\rho_1\max[0, g_i(x)]^2\,&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\rho_2\|h\|^2&amp;lt;/math&amp;gt;をそれぞれ&amp;lt;math&amp;gt;\rho_1\max[0, g_i(x)],\rho_2\|h\|_1&amp;lt;/math&amp;gt;で置き換えたものは&amp;lt;math&amp;gt;L_1\,&amp;lt;/math&amp;gt;厳密ペナルティ関数と呼ばれ, 乗数法や逐次2次計画法に対するメリット関数としてよく用いられる.&lt;br /&gt;
&lt;br /&gt;
　なお, 非線形関数の勾配やヘッセ行列の効率的な計算には高速自動微分法が有効であり，ヘッセ行列の近似行列を逐次構成する方法としては[[準ニュートン法]]がある. また, 線形計画問題に対する多項式内点法の理論は凸計画問題に拡張されている[5]. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
----&lt;br /&gt;
'''参考文献'''&lt;br /&gt;
&lt;br /&gt;
[1] D. P. Bertsekas: ''Nonlinear Programming'', Athena Scientific, 1997.&lt;br /&gt;
&lt;br /&gt;
[2] R. Fletcher: ''Practical Methods of Optimization'', John Wiley, 1987.&lt;br /&gt;
&lt;br /&gt;
[3] 藤田宏, 今野浩, 田邊國士:『最適化法』, 岩波書店, 1994.&lt;br /&gt;
&lt;br /&gt;
[4] 福島雅夫:『数理計画入門』, 朝倉書店, 1996.&lt;br /&gt;
&lt;br /&gt;
[5] Y. Nesterov and A. Nemirovskii: ''Interior Point Polynomial Algorithms in Convex Programming'', SIAM, 1994.&lt;br /&gt;
&lt;br /&gt;
[6] J. Nocedal and S. Wright: ''Numerical Optimization'', Springer, 1999.&lt;br /&gt;
&lt;br /&gt;
[7] 山下浩：「大規模システム最適化のためのアルゴリズム, モデリング, ソフトウェア」, 応用数理, '''6''' (1996), pp.26-38.&lt;/div&gt;</summary>
		<author><name>220.104.197.230</name></author>
	</entry>
</feed>