「制約付き最適化」の版間の差分

提供: ORWiki
ナビゲーションに移動 検索に移動
(基礎編と用語編のマージ)
 
(3人の利用者による、間の3版が非表示)
1行目: 1行目:
 
'''【せいやくつきさいてきか (constrained optimization)】'''
 
'''【せいやくつきさいてきか (constrained optimization)】'''
  
 +
=== 概要 ===
 +
制約付き最適化とは, ベクトル空間上の連続関数を適当な(連続)集合上で最適化する問題およびその解法である. 代表的な制約付き最適化問題には線形計画問題, 2次計画問題, 多面体上の凸(非線形)関数最適化問題, 凸計画問題などがあり, 問題に応じた解法が考案されている.  一般的な問題にも適用できる解法としては, 逐次2次計画法や内点法がある.
 +
 +
=== 詳説 ===
 
[[制約付き最適化]]とは, <math>n\,</math>次元ベクトル空間上の連続関数<math>f(x)\,</math>を適当な(連続)集合上で最適化する問題で一般に次の形で記述される.
 
[[制約付き最適化]]とは, <math>n\,</math>次元ベクトル空間上の連続関数<math>f(x)\,</math>を適当な(連続)集合上で最適化する問題で一般に次の形で記述される.
  
  
:<math>\begin{array}{ll}
+
<table align="center">
 +
<tr>
 +
<td><math>\begin{array}{ll}
 
\mbox{min}_x & f(x) \\
 
\mbox{min}_x & f(x) \\
 
\mbox{s. t.} & g_i(x) \le 0 \ (i=1,\ldots, m),  
 
\mbox{s. t.} & g_i(x) \le 0 \ (i=1,\ldots, m),  
 
\ \ \  h_j(x) = 0 \ (j=1,\ldots, l).
 
\ \ \  h_j(x) = 0 \ (j=1,\ldots, l).
\end{array}</math>     <math>\mbox{(1)}\,</math>
+
\end{array}</math>
 +
</td>
 +
<td width="100" align="right"><math>(1)\,</math></td>
 +
</tr>
 +
</table>
  
  
代表的な制約付き最適化問題には (A) [[線形計画問題]] (linear programming); (B) [[2次計画問題]] (quadratic programming); (C) 多面体上の凸(非線形)計画問題; (D) [[凸計画問題]] (convex programming); (E) (一般の)[[非線形計画問題]] (nonlinear programming)(<math>g, h, f\,</math>が一般の非線形関数である場合);があり, 各問題の特徴を生かした解法が研究されている.以下では主として(E)の解法について述べる.
+
代表的な制約付き最適化問題には (A) [[線形計画問題]] (linear programming); (B) [[2次計画問題]] (quadratic programming); (C) 多面体上の凸(非線形)計画問題; (D) [[凸計画問題]] (convex programming); (E) (一般の) [[非線形計画問題]] (nonlinear programming)(<math>g, h, f\,</math>が一般の非線形関数である場合);があり, 各問題の特徴を生かした解法が研究されている.以下では主として(E)の解法について述べる.
  
 
 問題(1)に対する[[ラグランジュ関数]] (Lagrangian function)を次のように定義する.  
 
 問題(1)に対する[[ラグランジュ関数]] (Lagrangian function)を次のように定義する.  
  
  
:<math>L(x,\lambda, \zeta) := f(x) + \sum_{i=1}^m \lambda_i g_i(x)  
+
<table align="center">
+ \sum_{j=1}^l \zeta_j h_j(x).</math>  
+
<tr>
 +
<td><math>L(x,\lambda, \zeta) := f(x) + \sum_{i=1}^m \lambda_i g_i(x)  
 +
+ \sum_{j=1}^l \zeta_j h_j(x).</math> </td>
 +
</tr>
 +
</table>
  
  
解法は, 最適性の十分条件である[[カルーシュ・キューン・タッカー条件]] (Karush-Kuhn-Tucker condition)
+
解法は, 最適性の必要条件である[[カルーシュ・キューン・タッカー条件]] (Karush-Kuhn-Tucker condition)
  
  
:<math>\begin{array}{l}
+
<table align="center">
 +
<tr>
 +
<td><math>\begin{array}{l}
 
\nabla_x L(x,\lambda,\zeta)=0,  \\
 
\nabla_x L(x,\lambda,\zeta)=0,  \\
 
\lambda_i g_i(x) = 0 \qquad  (i=1, \ldots, m),  \\
 
\lambda_i g_i(x) = 0 \qquad  (i=1, \ldots, m),  \\
 
g_i(x) \leq 0, \ \lambda_i \geq 0 \qquad  (i=1, \ldots, m),  \\
 
g_i(x) \leq 0, \ \lambda_i \geq 0 \qquad  (i=1, \ldots, m),  \\
 
h_j(x) = 0 \qquad  (j=1, \ldots, l),   
 
h_j(x) = 0 \qquad  (j=1, \ldots, l),   
\end{array}</math>     <math>\mbox{(2)}\,</math>
+
\end{array}</math>
 +
</td>
 +
<td width="100" align="right"><math>(2)\,</math></td>
 +
</tr>
 +
</table>    
  
  
を満たす点(KKT点)を求めることを目的として設計される.探索方向を定め,その方向に適当なステップ幅だけ進むことを繰り返して漸近的にKKT点に収束する点列を生成する. 主な解法としては, (1) 射影勾配法 (gradient projection method)および有効制約法 (active set method); (2) [[ペナルティ関数法]] (penalty function method); (3) [[乗数法(数理計画の)]] (multiplier method); (4) [[逐次2次計画法]] (sequential quadratic programming method); (5) [[内点法]] (interior point method)が知られている. これらの内で実用性が高いとされるのは逐次2次計画法と内点法であるが, 制約領域が多面体である場合は有効制約法も用いられる.現状では, 逐次2次計画法により数百変数程度の中規模問題が, さらに内点法によって数千, 数万変数の大規模問題がある程度解けるようになりつつある.  
+
を満たす点(KKT点)を求めることを目的として設計される.探索方向を定め,その方向に適当なステップ幅だけ進むことを繰り返して漸近的にKKT点に収束する点列を生成する. 主な解法としては, (1) 射影勾配法 (gradient projection method)および有効制約法 (active set method); (2) [[ペナルティ関数法]] (penalty function method); (3) [[乗数法 (数理計画の)|乗数法]] (multiplier method); (4) [[逐次2次計画法]] (sequential quadratic programming method); (5) [[内点法]] (interior point method)が知られている. これらの内で実用性が高いとされるのは逐次2次計画法と内点法であるが, 制約領域が多面体である場合は有効制約法も用いられる.現状では, 逐次2次計画法により数百変数程度の中規模問題が, さらに内点法によって数千, 数万変数の大規模問題がある程度解けるようになりつつある.  
  
 射影勾配法は等式制約条件のみからなる最適化問題において, 実行可能領域の集合上に目的関数の勾配を射影してその(逆)方向に進む方法である [2].有効制約法は不等式制約付き問題に対する射影勾配法の拡張である [2].
+
 勾配射影法は, 実行可能領域 (やその境界) の接平面の集合上に目的関数の勾配を射影してその(逆)方向に進む方法で、等式制約のみの問題に対するものが基本形である [2].有効制約法は制約領域が多面体である場合に対する勾配射影法の拡張である [2].
  
 
 ペナルティ関数法は, 問題を無制約最適化問題に変換して解く方法であり,60年代に研究された[2, 4].この方法では, 目的関数に制約を満たさないことに対するペナルティ項を付加したペナルティ関数 (penalty function) を導入する. ペナルティ項が十分大きければ, ペナルティ関数を最小化することによって問題が近似的に解けるわけである. 典型的なペナルティ関数の一つは   
 
 ペナルティ関数法は, 問題を無制約最適化問題に変換して解く方法であり,60年代に研究された[2, 4].この方法では, 目的関数に制約を満たさないことに対するペナルティ項を付加したペナルティ関数 (penalty function) を導入する. ペナルティ項が十分大きければ, ペナルティ関数を最小化することによって問題が近似的に解けるわけである. 典型的なペナルティ関数の一つは   
  
  
:<math>F_\rho^{\rm P}(x) := f(x) + \rho_1 \max_i[0, g_i(x)]^2 + \rho_2 \|h(x)\|^2</math>     <math>\mbox{(3)}\,</math>
+
<table align="center">
 +
<tr>
 +
<td><math>F_\rho^{\rm P}(x) := f(x) + \rho_1 \max_i[0, g_i(x)]^2 + \rho_2 \|h(x)\|^2</math>
 +
<td>
 +
<td width="100" align="right"><math>(3)\,</math></td>
 +
</tr>
 +
</table>
  
  
46行目: 72行目:
  
  
:<math>F_{(\rho,\zeta)}^{\rm M}(x) :=
+
<table align="center">
 +
<tr>
 +
<td><math>F_{(\rho,\zeta)}^{\rm M}(x) :=
 
f(x) + \sum \zeta_j h_j(x) + \rho \|h(x)\|^2</math>
 
f(x) + \sum \zeta_j h_j(x) + \rho \|h(x)\|^2</math>
 +
</td>
 +
</tr>
 +
</table>
  
  
55行目: 86行目:
  
  
:<math>\begin{array}{lll}
+
<table align="center">
 +
<tr>
 +
<td><math>\begin{array}{lll}
 
\mbox{min}_x & \frac12 (x - x^k)^{\top} H^k (x-x^k) + (x-x^k)^{\top} \nabla f(x^k) & \\
 
\mbox{min}_x & \frac12 (x - x^k)^{\top} H^k (x-x^k) + (x-x^k)^{\top} \nabla f(x^k) & \\
 
\mbox{s. t.} & g_i(x^k) + (x - x^k)^{\top} \nabla g_i(x^k) \le 0 & (i=1,\ldots,m),  \\
 
\mbox{s. t.} & g_i(x^k) + (x - x^k)^{\top} \nabla g_i(x^k) \le 0 & (i=1,\ldots,m),  \\
 
                   & h_j(x^k)+ (x-x^k)^{\top} \nabla h_j(x^k) = 0 & (j=1, \ldots, l),
 
                   & h_j(x^k)+ (x-x^k)^{\top} \nabla h_j(x^k) = 0 & (j=1, \ldots, l),
 
\end{array}</math>
 
\end{array}</math>
 +
</td>
 +
</tr>
 +
</table>
  
  
 
を解いてその方向に進んで次の点<math>x^{k+1}\,</math>を定める. ここで<math>H^k\,</math>は<math>x^k\,</math>における<math>L(x,\lambda,\zeta)\,</math>の変数<math>x\,</math>に関するヘッセ行列<math>\nabla_{xx}L\,</math>あるいはその近似行列である.  
 
を解いてその方向に進んで次の点<math>x^{k+1}\,</math>を定める. ここで<math>H^k\,</math>は<math>x^k\,</math>における<math>L(x,\lambda,\zeta)\,</math>の変数<math>x\,</math>に関するヘッセ行列<math>\nabla_{xx}L\,</math>あるいはその近似行列である.  
  
 1984年の[[カーマーカー法]](Karmarkar method)の登場以来, 内点法はさまざまな制約付き最適化問題に拡張された[5]. 内点法には主内点法 (primal interior point method)と[[主双対内点法]] (primal-dual interiorpoint method)の2種類がある.主内点法は, 基本的には不等式制約条件のみの最適化問題を取り扱う方法で,不等式制約を厳密に満たす点から出発して対数障壁関数 (log barrier function) <math>F_\nu^{\rm B}(x) := f(x) - \nu \sum_i \log[ - g_i(x)]</math>を逐次最小化して問題を解くものである.各<math>\nu>0</math>に対して<math>F_\nu^{\rm B}\,</math>を最小化する点が作る集合を中心曲線(central trajectory)という.<math>\nu\,</math>を小さくしながら<math>F_\nu^{\rm B}(x)\,</math>を[[ニュートン法]] によって最小化して中心曲線を追跡して問題を解く. 対数障壁関数は各不等式制約を定数倍する変換に対して不変であるという自然な性質を持つ.  
+
 1984年の[[カーマーカー法]](Karmarkar method)の登場以来, 内点法はさまざまな制約付き最適化問題に拡張された[5, 7]. 内点法には主内点法 (primal interior point method)と[[主双対内点法]] (primal-dual interiorpoint method)の2種類がある.主内点法は, 基本的には不等式制約条件のみの最適化問題を取り扱う方法で,不等式制約を厳密に満たす点から出発して対数障壁関数 (log barrier function) <math>\textstyle F_\nu^{\rm B}(x) := f(x) - \nu \sum_i \log[ - g_i(x)]</math>を逐次最小化して問題を解くものである.各<math>\nu>0</math>に対して<math>F_\nu^{\rm B}\,</math>を最小化する点が作る集合を中心曲線(central trajectory)という.<math>\nu\,</math>を小さくしながら<math>F_\nu^{\rm B}(x)\,</math>を[[ニュートン法]] によって最小化して中心曲線を追跡して問題を解く. 対数障壁関数は各不等式制約を定数倍する変換に対して不変であるという自然な性質を持つ.  
  
 
 現在主流となりつつある主双対内点法は, 線形計画問題に対するものを拡張した次のような方法である[7]. この方法では新たに正のパラメータ<math>\nu\,</math>を導入し,カルーシュ・キューン・タッカー条件(2)の内, <math>\lambda_i g_i(x) = 0\,</math>と<math>g_i(x) \leq 0\,</math>を,  
 
 現在主流となりつつある主双対内点法は, 線形計画問題に対するものを拡張した次のような方法である[7]. この方法では新たに正のパラメータ<math>\nu\,</math>を導入し,カルーシュ・キューン・タッカー条件(2)の内, <math>\lambda_i g_i(x) = 0\,</math>と<math>g_i(x) \leq 0\,</math>を,  
  
  
:<math>\lambda_i s_i = \nu, \ \ \ g_i(x) + s_i = 0,\ \ \ s_i \geq 0\ \ \ (i=1, ..., m)</math>
+
<table align="center">
 +
<tr>
 +
<td><math>\lambda_i s_i = \nu, \ \ \ g_i(x) + s_i = 0,\ \ \ s_i \geq 0\ \ \ (i=1, ..., m)</math></td>
 +
</tr>
 +
</table>
  
  
95行目: 135行目:
 
[6] J. Nocedal and S. Wright: ''Numerical Optimization'', Springer, 1999.
 
[6] J. Nocedal and S. Wright: ''Numerical Optimization'', Springer, 1999.
  
[7] 山下浩:「大規模システム最適化のためのアルゴリズム, モデリング, ソフトウェア」, 応用数理, '''6''' (1996), pp.26-38.
+
[7] 小島政和,土谷隆,水野眞治,矢部博:『内点法』,朝倉書店,2001.
 +
 
 +
 
 +
[[Category:非線形計画|せいやくつきさいてきか]]

2008年3月13日 (木) 22:45時点における最新版

【せいやくつきさいてきか (constrained optimization)】

概要

制約付き最適化とは, ベクトル空間上の連続関数を適当な(連続)集合上で最適化する問題およびその解法である. 代表的な制約付き最適化問題には線形計画問題, 2次計画問題, 多面体上の凸(非線形)関数最適化問題, 凸計画問題などがあり, 問題に応じた解法が考案されている. 一般的な問題にも適用できる解法としては, 逐次2次計画法や内点法がある.

詳説

制約付き最適化とは, 次元ベクトル空間上の連続関数を適当な(連続)集合上で最適化する問題で一般に次の形で記述される.



代表的な制約付き最適化問題には (A) 線形計画問題 (linear programming); (B) 2次計画問題 (quadratic programming); (C) 多面体上の凸(非線形)計画問題; (D) 凸計画問題 (convex programming); (E) (一般の) 非線形計画問題 (nonlinear programming)(が一般の非線形関数である場合);があり, 各問題の特徴を生かした解法が研究されている.以下では主として(E)の解法について述べる.

 問題(1)に対するラグランジュ関数 (Lagrangian function)を次のように定義する.



解法は, 最適性の必要条件であるカルーシュ・キューン・タッカー条件 (Karush-Kuhn-Tucker condition)


    


を満たす点(KKT点)を求めることを目的として設計される.探索方向を定め,その方向に適当なステップ幅だけ進むことを繰り返して漸近的にKKT点に収束する点列を生成する. 主な解法としては, (1) 射影勾配法 (gradient projection method)および有効制約法 (active set method); (2) ペナルティ関数法 (penalty function method); (3) 乗数法 (multiplier method); (4) 逐次2次計画法 (sequential quadratic programming method); (5) 内点法 (interior point method)が知られている. これらの内で実用性が高いとされるのは逐次2次計画法と内点法であるが, 制約領域が多面体である場合は有効制約法も用いられる.現状では, 逐次2次計画法により数百変数程度の中規模問題が, さらに内点法によって数千, 数万変数の大規模問題がある程度解けるようになりつつある.

 勾配射影法は, 実行可能領域 (やその境界) の接平面の集合上に目的関数の勾配を射影してその(逆)方向に進む方法で、等式制約のみの問題に対するものが基本形である [2].有効制約法は制約領域が多面体である場合に対する勾配射影法の拡張である [2].

 ペナルティ関数法は, 問題を無制約最適化問題に変換して解く方法であり,60年代に研究された[2, 4].この方法では, 目的関数に制約を満たさないことに対するペナルティ項を付加したペナルティ関数 (penalty function) を導入する. ペナルティ項が十分大きければ, ペナルティ関数を最小化することによって問題が近似的に解けるわけである. 典型的なペナルティ関数の一つは



である. は正のパラメータでこれをペナルティパラメータと呼ぶ. 実際には, 大きなの値に対してをいきなり最適化するのではなく, の値を徐々に大きくしながらを無制約最適化するというステップを繰り返して問題を解く.が大きくなるにつれてが悪条件になり無制約最適化が難しくなることが欠点とされる. 類似の方法で不等式制約を必ず満たすようにペナルティ項を付加したものは, 障壁関数法 (barrier function method)と呼ばれる.

 上に述べたペナルティ法の欠点を克服するために考えられたのが乗数法である [1, 3]. 乗数法は, 基本的には等式制約のみの問題を扱うための解法であり,の他にラグランジュ乗数(Lagrangian multiplier)を導入して次のように定義される拡張ラグランジュ関数 (augumented Lagrangian function)



の無制約最適化を行って問題を解くものである.が十分大きくが元の問題のKKT点におけるラグランジュ乗数である時には, KKT点はの極小点になる. そこで,を十分に大きくとった上で, (i)適当な方法でを推定し, (ii)を無制約最適化する; という2つのステップを繰り返すことで, を更新することなくKKT点に収束する解法が得られる. 不等式制約を持つ問題に対しては, スラック変数を導入して として, 等式制約に直した上でこの方法を適用すればよい. 乗数法は70年代に研究された.

 次に70年代後半から80年代に入って研究されたのが,逐次2次計画法である [2, 4, 6].逐次2次計画法では, 点において, ラグランジュ関数を2次近似し, 制約条件を1次近似して得られる2次計画問題



を解いてその方向に進んで次の点を定める. ここでにおけるの変数に関するヘッセ行列あるいはその近似行列である.

 1984年のカーマーカー法(Karmarkar method)の登場以来, 内点法はさまざまな制約付き最適化問題に拡張された[5, 7]. 内点法には主内点法 (primal interior point method)と主双対内点法 (primal-dual interiorpoint method)の2種類がある.主内点法は, 基本的には不等式制約条件のみの最適化問題を取り扱う方法で,不等式制約を厳密に満たす点から出発して対数障壁関数 (log barrier function) を逐次最小化して問題を解くものである.各に対してを最小化する点が作る集合を中心曲線(central trajectory)という.を小さくしながらニュートン法 によって最小化して中心曲線を追跡して問題を解く. 対数障壁関数は各不等式制約を定数倍する変換に対して不変であるという自然な性質を持つ.

 現在主流となりつつある主双対内点法は, 線形計画問題に対するものを拡張した次のような方法である[7]. この方法では新たに正のパラメータを導入し,カルーシュ・キューン・タッカー条件(2)の内, を,



で置き換え, この条件を満たす点の集合を中心曲線とする. を小さくしながらニュートン法で中心曲線上の点を求めることを繰り返してKKT点に収束する点列を生成する.主双対内点法では,ラグランジュ乗数を導入することでペナルティ関数などの欠点であったKKT点の近くでの悪条件を克服している.

 上述の各解法においてはKKT点や中心曲線上の点への近さを適当なメリット関数(merit function)で測り,各反復ではそれを減少させるようにステップ幅を選ぶ. メリット関数は探索方向の生成法と並んで解法の設計上重要な要素である. 無制約最小化することで元の制約付き最適化問題のKKT点が得られるような関数を厳密ペナルティ関数(exact penalty function)という. ペナルティ関数(3)で項, をそれぞれで置き換えたものは厳密ペナルティ関数と呼ばれ, 乗数法や逐次2次計画法に対するメリット関数としてよく用いられる.

 なお, 非線形関数の勾配やヘッセ行列の効率的な計算には高速自動微分法が有効であり,ヘッセ行列の近似行列を逐次構成する方法としては準ニュートン法がある. また, 線形計画問題に対する多項式内点法の理論は凸計画問題に拡張されている[5].



参考文献

[1] D. P. Bertsekas: Nonlinear Programming, Athena Scientific, 1997.

[2] R. Fletcher: Practical Methods of Optimization, John Wiley, 1987.

[3] 藤田宏, 今野浩, 田邊國士:『最適化法』, 岩波書店, 1994.

[4] 福島雅夫:『数理計画入門』, 朝倉書店, 1996.

[5] Y. Nesterov and A. Nemirovskii: Interior Point Polynomial Algorithms in Convex Programming, SIAM, 1994.

[6] J. Nocedal and S. Wright: Numerical Optimization, Springer, 1999.

[7] 小島政和,土谷隆,水野眞治,矢部博:『内点法』,朝倉書店,2001.