6S-09
複数モデルの出力を用いたAdversarial Examplesの検出
○林 瑛晟,萩野達也,服部隆志(慶大)
ニューラルネットワークの誤検出を導くAdversarial Examplesは、AIを利用する際の懸念となっている。本研究では、まず広く利用されているアーキテクチャーに対していくつかの攻撃を実験する。そしてAdversarial Examplesの検出を4分類することを提唱し、また複数のモデルに対して同じ入力を与え、その出力を特徴量として用いることでAdversarial Examplesの検出を行う手法を提案する。