連続セミナー2024「情報技術の新たな地平:AIと量子が導く社会変革」

  • シェアする
  • ツイート
  • noteで書く
  • LINEで送る
参加申込はこちら

第6回【9月19日(木)9:00~12:10】

AIガバナンスとAI品質マネジメント:拡大するAIリスクへの対策


AI技術の発展が著しく、特に高度な生成AIの活用は知的活動の生産性向上や発想の拡大を可能にし、社会に大きなインパクトをもたらしつつあります。その一方で、ブラックボックス性や制御困難性などから生じる予期せぬ事態の発生や、フェイク生成や犯罪等への悪用をはじめ、様々なAIリスクが深刻化するという状況を招いています。このようなAIリスクへの対策は喫緊の課題として、適切な規制政策・ガバナンス手法が国際的に議論・実行されています。また、AI応用システム開発プロセスにおいても、リスクをできる限り回避し、安全性・信頼性を確保するAI品質マネジメントの方法論・技術群・ガイドライン等が開発されています。さらに、汎用人工知能(AGI)の実現可能性が高まる中、そのリスクを抑え込み社会や人類の価値観に整合したものにするAIアライメントの考え方も活発に議論されるようになりました。このような動向を踏まえ、本セッションでは、AIガバナンス政策、AI品質マネジメント技術、AIアライメント問題という3つの切り口から、最新動向や課題を紹介いただきます。
  • [9:00-9:05]オープニング

    大塚  玲
    大塚 玲(情報セキュリティ大学院大学 情報セキュリティ研究科 教授)

    【略歴】1991年大阪大学工学研究科博士前期課程修了。2002年東京大学大学院工学系研究科電子情報工学専攻博士課程修了。博士(工学)。2005年4月より産業技術総合研究所。2017年4月より情報セキュリティ大学院大学教授。電子情報通信学会、情報処理学会、IEEE、IACR、IFCA各会員。電子情報通信学会バイオメトリクス研究専門委員会(BioX)顧問。JNSAサイバーセキュリティ産学連携協議会代表、人工知能学会安全性とセキュリティ研究会(SIG-SEC)主査(2024年6月〜)。
  • [9:05-9:55]Session1「世界のAIガバナンス・規制の生成メカニズムとその最近の動向」

    AI技術が高度化し、その能力が強大になるにつれ、社会に対するインパクトも大きなものとなり、このため、AIを適切にガバナンスし、または規制しようとする動きが世界的に生じてきています。本講演では、このような世界におけるAIガバナンス・規制政策の生成・進化のメカニズムについては説明するとともに、最新の動向について読み解きます。具体的には、技術の進展に伴い、技術ガバナンス制度が生成・発展するメカニズムと、特にAI技術の場合の特徴を説明したあと、第三次AIブーム以降の世界のAIガバナンス・規制政策の動きを振り替えるとともに、その世界的な多様性の要因を明らかにします。その上で、今般の生成AI登場以降の世界各国及び国際機関におけるAIガバナンス・規制政策に係る最新の動向及びその全体像について説明し、今後の世界・日本のAIガバナンス政策の方向について、読み解きます。

    市川 類(東京工業大学 データサイエンス・AI全学教育機構(DSAI)/一橋大学 イノベーション研究センター(IIR) 特任教授)

    【略歴】1990年東京大学修士課程修了(広域科学)、1997年MIT修士修了(技術政策)、2013年政策研究大学院大学博士修了(STI政策)。博士(政策研究)。1990年、通商産業省(現経済産業省)入省(2023年まで)。その後、各種の技術・イノベーション政策、特にデジタル・AI政策に従事。2013年内閣官房IT総合戦略室内閣参事官、2017年産総研AI研究戦略部長等、2020年一橋大学イノベーション研究センター教授。現在、東工大DSAI特任教授、一橋大IIR特任教授、JST/CRDSフェロー。
  • [9:55-10:05]休憩

  • [10:05-10:55]Session2「AIリスクを踏まえた品質マネジメントと対話型生成AIにおける新たな挑戦」

    石川 冬樹

    AIプロダクト・サービスの企画や開発、提供に対しては、そのリスクが広く議論され、国際標準や欧州などによる要請も強くなっています。しかし国内では2019年前後においてすでに、QA4AI、AIQMといったAI品質に関するガイドラインが公開されており、AIリスクを踏まえた品質マネジメントに関する対応指針がある程度根付いてきました。これまでの指針は、教師あり学習技術によるAIを中心としたものでしたが、大規模言語モデル(LLM)に基づいた対話型生成AIの品質についても多くの動きが出てきました。本講演では、従来型のAIに関する品質マネジメントの指針を振り返りつつ、対話型生成AIの品質に関する動向を論じます。

    石川 冬樹(情報・システム研究機構 国立情報学研究所 アーキテクチャ科学研究系 准教授・先端ソフトウェア工学・国際研究センター センター長)

    【略歴】国立情報学研究所アーキテクチャ科学研究系 准教授、および先端ソフトウェア工学・国際研究センター センター長。総合研究大学院大学および電気通信大学兼任。ソフトウェア工学、自律・スマートシステムの研究に従事。令和6年度科学技術分野 文部科学大臣科学技術賞 共同受賞。AIプロダクト品質保証コンソーシアム 運営委員長。博士(情報理工学)。
  • [10:55-11:05]休憩

  • [11:05-11:55]Session3「AIアライメント: 経験から学べないAGIの制御問題にどう向き合うか?」

    山川 宏

    本講演では、AGI(汎用人工知能)の定義とその実現に向けた課題やリスクについて述べる。AGIの出現要素時期は数年年から100年程度と幅があるが、自己再帰的改善により急速に超知能へと発展し知能爆発至る可能性もある。こうした超知能による知能爆発のリスクが懸念されている。このリスクを一部の人々は深刻に捉えているが、経験したことのないリスクに対策を講じるモチベーションを持つことは難しい。そのため、予防原則に基づく先制的な対策や、異分野協働によるリスク評価と対策立案、一般市民への啓発活動などが求められている。また、AGIの目的や価値観を人類の利益に沿ったものにするというAIアライメントの取り組みも重要である。一方、AGIによる技術革新や経済発展の可能性、競争原理などを考慮すると、その開発は不可避とも考えられる。したがって、AGI開発とリスク管理のバランスを取るガバナンスも必要である。本講演が、AGIの可能性とリスクについて理解を深め、人類の英知を結集して取り組むきっかけをあたえられれば幸いである。

    山川 宏(東京大学 人工物工学研究センター 主幹研究員)

    【略歴】1992年東京大学大学院工学系研究科電子工学専攻博士課程修了。博士(工学)。同年(株)富士通研究所入社。1994年から2000年まで通産省RWCプロジェクトに従事、2014年から2019年まで(株)ドワンゴ ドワンゴ人工知能研究所所長。現在、特定非営利活動法人全脳アーキテクチャイニシアティブ代表。人工知能学会(元編集委員長、汎用人工知能研究会主主査)、電子情報通信学会(元NC研究会専門委員長)。電気通信大学大学院連携教授、近畿大学情報学研究所知能システム部門長(客員教授)、理化学研究所生命システムセンター主管客員研究員および革新知能統合研究センター 客員研究員。
  • [11:55-12:00]クロージング

    大塚 玲(情報セキュリティ大学院大学 情報セキュリティ研究科 教授)

  • 参加申込はこちら
  • シェアする
  • ツイート
  • noteで書く
  • LINEで送る