「逆伝播法」の版間の差分

提供: ORWiki
ナビゲーションに移動 検索に移動
(新しいページ: ''''【ぎゃくでんぱほう (back propagation)】''' 階層型ニューラルネットワークにおいて, 教師信号とネットワーク出力の誤差2乗和を最...')
 
 
(他の1人の利用者による、間の1版が非表示)
2行目: 2行目:
  
 
階層型ニューラルネットワークにおいて, 教師信号とネットワーク出力の誤差2乗和を最小にするために勾配降下法を用いた場合のアルゴリズム.  誤差信号がネットワークの出力層から入力層に逆向きに用いられることからこの名称が用いられる. なお, 逆伝播アルゴリズムは, 階層型ネットワークだけでなくさらに広いクラスのネットワークにおいて, ヤコビアン(Jacobian)やヘッセ行列(Hessian)を用いる場合にも導出される.
 
階層型ニューラルネットワークにおいて, 教師信号とネットワーク出力の誤差2乗和を最小にするために勾配降下法を用いた場合のアルゴリズム.  誤差信号がネットワークの出力層から入力層に逆向きに用いられることからこの名称が用いられる. なお, 逆伝播アルゴリズムは, 階層型ネットワークだけでなくさらに広いクラスのネットワークにおいて, ヤコビアン(Jacobian)やヘッセ行列(Hessian)を用いる場合にも導出される.
 +
 +
[[category:近似・知能・感覚的手法|ぎゃくでんぱほう]]

2008年11月7日 (金) 16:06時点における最新版

【ぎゃくでんぱほう (back propagation)】

階層型ニューラルネットワークにおいて, 教師信号とネットワーク出力の誤差2乗和を最小にするために勾配降下法を用いた場合のアルゴリズム. 誤差信号がネットワークの出力層から入力層に逆向きに用いられることからこの名称が用いられる. なお, 逆伝播アルゴリズムは, 階層型ネットワークだけでなくさらに広いクラスのネットワークにおいて, ヤコビアン(Jacobian)やヘッセ行列(Hessian)を用いる場合にも導出される.