2025.05.19 12:07
なんとなくニューロンが学習できてきた感じだったけどちょっと間違い
・ニューロン1個の教育モードがなんとなく動いてきたな。
・出力の誤差をパラメータに反映させていくのだけど、フィードバックの比率を少し増やすと発散してしまう。誤差が大きいときにフィードバック量が大きくなりすぎるんだな。
・なるべく小さくしたほうが収束は良いけれど、多分いろいろなことをやっていると最初の収束速度は遅くなるんだろうな。
・と思っていて、ちょっと考え方が違っていたことに気づく。ニューロン内では線形の演算してから活性化関数で非線型性を与えるのだけど、逆にしてしまっていた。ちょっと書き直そう。
この記事へのコメント
コメントを書く