「逆伝播学習アルゴリズム」の版間の差分
ナビゲーションに移動
検索に移動
細 ("逆伝播学習アルゴリズム" を保護しました。 [edit=sysop:move=sysop]) |
Albeit-Kun (トーク | 投稿記録) |
||
2行目: | 2行目: | ||
多層型神経回路網における教師あり学習法の一種であり, パーセプトロンの限界を越えるものとしてラメルハート (D. Rumelhart) の提案(1986)により著名なものとなった. 入力信号値に対して望ましい出力信号値が既知であるときに, 観測された出力値との誤差を計算し, 出力層から開始して最前列の隠れ層にたどり着くまで, 誤差を前の層へ伝播し, この誤差の2乗を減少させるように各層間の重みを更新するアルゴリズムの特徴から逆伝播の名称がついた. | 多層型神経回路網における教師あり学習法の一種であり, パーセプトロンの限界を越えるものとしてラメルハート (D. Rumelhart) の提案(1986)により著名なものとなった. 入力信号値に対して望ましい出力信号値が既知であるときに, 観測された出力値との誤差を計算し, 出力層から開始して最前列の隠れ層にたどり着くまで, 誤差を前の層へ伝播し, この誤差の2乗を減少させるように各層間の重みを更新するアルゴリズムの特徴から逆伝播の名称がついた. | ||
+ | |||
+ | [[category:近似・知能・感覚的手法|ぎゃくでんぱがくしゅうあるごりずむ]] |
2008年11月7日 (金) 16:05時点における最新版
ぎゃくでんぱがくしゅうあるごりずむ (error back propagation learning)
多層型神経回路網における教師あり学習法の一種であり, パーセプトロンの限界を越えるものとしてラメルハート (D. Rumelhart) の提案(1986)により著名なものとなった. 入力信号値に対して望ましい出力信号値が既知であるときに, 観測された出力値との誤差を計算し, 出力層から開始して最前列の隠れ層にたどり着くまで, 誤差を前の層へ伝播し, この誤差の2乗を減少させるように各層間の重みを更新するアルゴリズムの特徴から逆伝播の名称がついた.