深層学習day3 Section3:GRU
要点まとめ
LTSMでは演算負荷が大きく、学習時間がかかってしまうのが問題だった。
GRU (Gated Recurrent Unit)は演算量を削減して改善したもの。
数式
入力対する重み、前回の出力に対する重みを用いて、
リセットゲートの出力
活性化関数を通すと、
また、更新ゲートの出力は、
これらから、次の出力を計算する。
実装演習
predict_wordを流して確認。
確認テスト等考察
LSTMは部品の数が多い。その背景として、CECが記憶機能だけで学習機能を持たない。そのため入力ゲートや出力ゲートなどの機能を使用する必要があり、演算量を増加させていた。