「逆伝播法」の版間の差分
ナビゲーションに移動
検索に移動
細 ("逆伝播法" を保護しました。 [edit=sysop:move=sysop]) |
Albeit-Kun (トーク | 投稿記録) |
||
2行目: | 2行目: | ||
階層型ニューラルネットワークにおいて, 教師信号とネットワーク出力の誤差2乗和を最小にするために勾配降下法を用いた場合のアルゴリズム. 誤差信号がネットワークの出力層から入力層に逆向きに用いられることからこの名称が用いられる. なお, 逆伝播アルゴリズムは, 階層型ネットワークだけでなくさらに広いクラスのネットワークにおいて, ヤコビアン(Jacobian)やヘッセ行列(Hessian)を用いる場合にも導出される. | 階層型ニューラルネットワークにおいて, 教師信号とネットワーク出力の誤差2乗和を最小にするために勾配降下法を用いた場合のアルゴリズム. 誤差信号がネットワークの出力層から入力層に逆向きに用いられることからこの名称が用いられる. なお, 逆伝播アルゴリズムは, 階層型ネットワークだけでなくさらに広いクラスのネットワークにおいて, ヤコビアン(Jacobian)やヘッセ行列(Hessian)を用いる場合にも導出される. | ||
+ | |||
+ | [[category:近似・知能・感覚的手法|ぎゃくでんぱほう]] |
2008年11月7日 (金) 16:06時点における最新版
【ぎゃくでんぱほう (back propagation)】
階層型ニューラルネットワークにおいて, 教師信号とネットワーク出力の誤差2乗和を最小にするために勾配降下法を用いた場合のアルゴリズム. 誤差信号がネットワークの出力層から入力層に逆向きに用いられることからこの名称が用いられる. なお, 逆伝播アルゴリズムは, 階層型ネットワークだけでなくさらに広いクラスのネットワークにおいて, ヤコビアン(Jacobian)やヘッセ行列(Hessian)を用いる場合にも導出される.