抄録
F-001
LSTM派生型リカレントニューラルネットワークにおける隠れ層重み行列について
櫻井孝憲・浅井紀久夫(放送大)
 Neural Networkの一分野に、時系列などの順序性のあるデータを取り扱うRNNがある。RNNの一種であるLSTMは様々な応用がなされており成功している。
 しかしLSTMは複雑な構造をしているためLSTMを簡略化する提案が複数なされている。簡略化の基本的方向性はCECおよびゲートの削減である。本論文では、派生型のなかで最も簡略化されているRHN(Recurrent Highway Networks)を主な題材にして、その隠れ層重み行列を含む項を除いた構成SRNN(Single weight matrix RNN)を考案し、性能評価実験によりその有効性を検証する。