情報処理学会第85回全国大会 会期:2023年3月2日~4日 会場:電気通信大学

7P-03
画像解釈器の脆弱性検証のためのブラックボックス敵対的攻撃に関する基礎検討
○廣瀬雄大,梶浦梨央,小野智司(鹿児島大)
近年,深層ニューラルネットワーク(Deep Neural Network: DNN)の予測根拠を示す解釈器についての研究が広く行われている.一方,DNNには画像に対して特殊な摂動を加えることで誤分類を引き起こす敵対的事例(Adversartial Examples: AE)と呼ばれる脆弱性が存在することが知られている.同様の脆弱性が解釈器にも存在することが確認されており,解釈器を安全に使用するためには脆弱性の調査が不可欠である.このため本研究では,DNNのモデルの内部構造が未知となるブラックボックス条件下において,誤った解釈結果を導出させるAEを進化計算により生成する手法を提案する.実験により提案手法は予測ラベルを変えることなく解釈器のみを誤認させるAEを生成することに成功した.