5Q-08
FPGA実装に向けた深層学習での量子化の検証
CNNなどのAI技術は計算にかかるコストが高く,通常GPUなどの計算能力が高いデバイスで処理されることが多い。従って、エッジ端末上でCNNを処理する場合にはモデルの圧縮が必要となる。その手法の一つは量子化である。
本研究は、CNNの畳込み層と全結合層における重みを1と-1の二値(1bit)にしを実現し、評価を行う。さらに、二値化後のモデルをFPGAに実装し、高速化を図る。
実験結果により、重みのみの二値化は、認識精度を低下せず、モデルの圧縮に成功したことを示した。しかし、Batch normalization層において、32bitから1ビットの変更と検証が必要である。
本研究は、CNNの畳込み層と全結合層における重みを1と-1の二値(1bit)にしを実現し、評価を行う。さらに、二値化後のモデルをFPGAに実装し、高速化を図る。
実験結果により、重みのみの二値化は、認識精度を低下せず、モデルの圧縮に成功したことを示した。しかし、Batch normalization層において、32bitから1ビットの変更と検証が必要である。