勾配下降法と確率的勾配下降法 490ニューラルネットワーク 2024年05月04日 0 勾配下降法関数の最小値をもとめるために、傾き(勾配)が小さくなる方向へ移動しながら探索する。確率的勾配下降法訓練データをランダムに選ぶことで、初期値をバラバラにして、局所解になる可能性を減らす。 PR
山登り法と焼きなまし法 490ニューラルネットワーク 2024年04月29日 0 山登り法対象とする関数などの値が、大きい/小さい方へ移動することで、最大値/最小値を見つける焼きなまし法山登り法で、「移動の割合」を、最初は大きく、徐々に小さくしていく
パーセプトロン線形モデル 490ニューラルネットワーク 2023年03月21日 0 ・n個の値、x1, x2, ・・・xn を入力として、そこからyを出力する・重み、w1,w2.・・・wnを学習して、 f(x,w) = x1*w1 +・・・+ xn*xn を計算する・XOR関数を学習できない
ニューロンの重みの更新 490ニューラルネットワーク 2022年09月24日 0 ニューロンの重みを w とするとw = w - α × δwδwは、wに関して、損失Eを偏微分したもの。αは、学習率と呼ばれるものαの初期値は、比較的大きな値としておく。学習がすすみ解に近づくと、αを小さくして、解から遠ざけないようにする。エポックごとに損失が大きくなっている場合は、αが大きすぎる可能性がある。
誤差逆伝播の問題点 490ニューラルネットワーク 2022年07月31日 0 誤差逆伝播の問題点1.局所最適解に収束し、大域最適解への収束が保証されない2.重みなどの学習結果が、初期値へ依存する3.中間層が増えると、伝播される誤差の情報が失われ、学習できない