連続セミナー2024「情報技術の新たな地平:AIと量子が導く社会変革」
第5回【9月2日(月)9:00~12:00】
AIセキュリティ:AIを攻撃から守る/AIを使った攻撃に備える
AIの発展が著しい一方、新たな脆弱性が生じており、AIを攻撃から守るための新たな技術開発が必要になっています。また、AIを使うことで攻撃が高度化し、かつ、生成AIを用いたフェイク生成が人への攻撃に使われる問題も深刻化しており、対策が強く求められています。
本セッションではこのようなAIセキュリティの最新動向や課題を紹介します。
※本セミナーは、配布資料とアーカイブ配信をご提供いたします。
参加された方々の声
- 背景情報含めた体系的な説明だったため、非常にわかりやすく頭が整理された。
- AIとセキュリティの関係について、初心者にもわかり易く、全体像を解説していただき、非常に助けになった。
-
[9:00-9:05]オープニング
大塚 玲(情報セキュリティ大学院大学 情報セキュリティ研究科 教授)
【略歴】1991年大阪大学工学研究科博士前期課程修了。2002年東京大学大学院工学系研究科電子情報工学専攻博士課程修了。博士(工学)。2005年4月より産業技術総合研究所。2017年4月より情報セキュリティ大学院大学教授。電子情報通信学会、情報処理学会、IEEE、IACR、IFCA各会員。電子情報通信学会バイオメトリクス研究専門委員会(BioX)顧問。JNSAサイバーセキュリティ産学連携協議会代表、人工知能学会安全性とセキュリティ研究会(SIG-SEC)主査(2024年6月〜)。 -
[9:05-9:55]Session1「AI for Security:AIを使ったサイバー攻撃対応の最新動向」
大規模言語モデルの驚異的な知的能力の高さが社会に衝撃を与え、スケーリング則に勇気づけられてさらに大規模化した言語モデルが社会に爆発的に浸透し始めている。また、複雑とされていた囲碁や将棋においても、敵対的な深層強化学習を通じてAIが人間の能力を凌ぐ能力を獲得できることが実証されている。今後、高度な専門技能が要求されるサイバー攻撃対応においても、AIが人間の能力を超えた性能を発揮することが期待できる。米国防高等研究計画局(DARPA)もAIサイバーチャレンジ(AIxCC)を立ち上げ、同分野の活性化を推進している。本講演では、それらの最新動向を紹介すると共に、大規模言語モデル(LLM)により自律的にサイバー攻撃に対応するシステム(自律サイバー推論システム)の可能性を調査した結果を報告する。
大塚 玲(情報セキュリティ大学院大学 情報セキュリティ研究科 教授) -
[9:55-10:05]休憩
-
[10:05-10:55]Session2「AIの社会実装とセキュリティ」
AIの社会実装が進むなか、AI自体のセキュリティが注目されるようになった。いわゆるSecurity for AIである。これは、半導体技術、ICT、センサー・IoT、ソフトウェア工学などの伸展で引き出された深層学習や機械学習の潜在能力の高さが根本にある。膨大なデータと計算資源を投入されたAIは大きな価値を生む情報資産であり、この機密性、完全性、可用性を担保することが重要な社会課題である。AIセキュリティを考える上で、従来のソフトウェアとどう異なるのかを正しく理解し、そこに潜むリスクと脆弱性を把握することから始め、適切なAI開発や安全な運用に向けた対策を講じる必要がある。また、高度に発展したAI技術が社会実装されてシステムと一体化するなか、従来のソフトウェアとの違いが意識されなくなる時代がいずれやって来る。我々はどのように安全・安心な社会を維持できるのか、本講演では、この観点からAIセキュリティについて考える。
小澤 誠一(国立大学法人神戸大学 数理・データサイエンスセンター センター長)
【略歴】1989年神戸大学大学院工学研究科修士課程修了、2000年に神戸大学准教授、2011年より同教授となって、現在、神戸大学数理・データサイエンスセンター・センター長と工学研究科教授などを兼務。2022年に株式会社テラアクソンを設立。非定常環境での継続学習、知識移転などの研究に従事し、最近はAIの社会実装を目指し、AI for Security / Security for AI、プライバシー保護データ解析、組織間連合学習などの技術開発と応用に従事。 -
[10:55-11:05]休憩
-
[11:05-11:55]Session3「選挙、紛争、災害における偽誤情報拡散とAIリスク」
選挙や紛争、災害における、偽誤情報拡散による情報汚染への懸念が高まっています。偽誤情報は、世論を武器化する認知戦のツールとなります。その後押しをするのが、生成AIの急速な普及です。偽誤情報の大規模化、低コスト化、巧妙化、迅速化が指摘されます。AIで生成した偽画像・偽動画「ディープフェイクス」や偽装サイトなどの氾濫は、真偽の境界を曖昧にし、情報空間への信頼を揺るがせています。偽誤情報にまつわるAIリスクと対策の現状を整理します。
平 和博(桜美林大学 リベラルアーツ学群 教授)
【略歴】早稲田大学卒業。1986年に朝日新聞入社。シリコンバレー駐在、編集委員、IT専門記者などを担当。2019年から現職。日本ファクトチェックセンター運営委員。JST-RISTEXプログラムアドバイザー。著書に『チャットGPT vs.人類』『悪のAI論』など。 -
[11:55-12:00]クロージング
大塚 玲(情報セキュリティ大学院大学 情報セキュリティ研究科 教授)