連続セミナー2026「実世界に広がるAI:情報技術の融合と社会展開」

  • シェアする
  • ポスト
  • noteで書く
  • LINEで送る
参加申込はこちら

第2回【6月26日(金) 13:00~16:25】 ※オンライン開催(Zoomウェビナー)

LLMハルシネーション ~その原因と対策~


2022年11月末のChatGPT登場以降、大規模言語モデル(LLM:Large Language Model)と呼ばれる対話型AIの技術発展と利用拡大が著しい。LLMは、まるで人間のような自然な応答や専門的な知識・能力を備えているような応答を返す。しかし、事実とは異なる情報や、根拠のない架空の内容を、あたかも正しいかのように自信満々に出力する、「ハルシネーション」(Hallucination、幻覚)と呼ばれる現象が起こることが知られており、これを完全に回避することは難しい。本セミナーでは、ハルシネーションが起こる原因と対策について紹介する。
  • [13:00-13:10]オープニング

    加藤誠
    加藤 誠(筑波大学 図書館情報メディア系 准教授/国立情報学研究所 情報社会相関研究系 准教授)

    【略歴】筑波大学 図書館情報メディア系 准教授,および,国立情報学研究所 情報社会相関研究系 准教授.2012年京都大学大学院情報学研究科博士後期課程了.博士(情報学).主に情報検索の研究に従事.情報処理学会,日本データベース学会,ACM,ACM SIGIR 東京支部各会員.
     
  • [13:10-13:50]Session1「LLM におけるハルシネーションの多角的な要因分析」

    清丸 寛一

    大規模言語モデル(LLM)が生成する尤もらしい誤情報(ハルシネーション)は、LLM の登場以来、重要な課題であり続けているが、いまだ解決には至っていない。これは、ハルシネーションが単一の原因に帰着する現象ではなく、様々な要因が複合的に関与して生じる現象だからである。本講演では、ハルシネーション発生時のモデルの内部機序やその背後にある学習過程等、ハルシネーションの要因分析に関する諸研究を整理する。

    清丸 寛一(国立情報学研究所 大規模言語モデル研究開発センター 特任助教)

    【略歴】国立情報学研究所大規模言語モデル研究開発センター特任助教.2022年京都大学大学院情報学研究科博士課程修了.博士(情報学).京都大学大学院情報学研究科特定研究員を経て,2024年4月より現職.大規模言語モデルの学習コーパスの分析・改善に関する研究開発に従事.
  • [13:50-14:00]休憩

  • [14:00-14:40]Session2「ハルシネーション対策としてのRAG」

    加藤 誠

    生成AIにおけるハルシネーション対策として、検索拡張生成(Retrieval-Augmented Generation, RAG)が注目されている。RAGは、外部の文書や知識源を検索によって取得し、それを参照しながら応答を生成することで、回答の根拠を明示しやすくし、事実に基づいた生成を促す手法である。一方で、検索で不適切な文書を取得した場合には、誤った情報に基づく生成を招く可能性もあり、その有効性は検索精度に大きく依存する。本講演では、RAGの基本的な仕組みと、ハルシネーション抑制における利点を解説するとともに、検索技術の中でも特にベクトル検索に焦点を当て、その役割と特徴を説明する。さらに、RAGの限界や今後の課題について、我々の最近の研究成果も交えながら議論する。

    加藤 誠(筑波大学 図書館情報メディア系 准教授/国立情報学研究所 情報社会相関研究系 准教授)
  • [14:40-14:50]休憩

  • [14:50-15:30]Session3「ハルシネーション対策としての推論モデル」

    小林和馬

    LLMは、高度な対話応答能力と汎用的な問題解決能力により、瞬く間に社会に浸透し、人工知能システムの実社会応用における新たな可能性を切り拓いた。複雑な専門知識を正確に運用することが不可欠な医療分野も例外ではなく、LLMはすでに大きなインパクトをもたらしている。一方で、LLMにおけるハルシネーションは、医療分野では時に患者の生命に関わる判断に影響を及ぼす恐れがあり、その潜在的リスクは非常に大きい。本講演では、LLMが最終的な応答を出力する前に、ユーザからのクエリを解釈し、最適な出力を得るための思考プロセスを生成する推論(リーズニング)に着目する。この技術がハルシネーションの低減にもたらす効果について、特に医療応用を踏まえて最新研究を概観し、議論する。

    小林和馬(国立がん研究センター研究所 医療AI研究開発分野 主任研究員/国立情報学研究所 大規模言語モデル研究開発センター 特任准教授)

    【略歴】医師・博士(理学)。2011年慶應義塾大学医学部卒業。初期臨床研修医、国立がん研究センター中央病院放射線治療科を経て、放射線治療専門医取得。2018年より国立がん研究センター研究所・連携大学院生を経て、理学博士取得(東京医科歯科大学)。2021年より国立がん研究センター研究所・研究員。2024年7月より主任研究員。2024年10月より国立情報学研究所を兼務、2025年1月より特任准教授。主に医用画像解析、医療言語処理に従事。
  • [15:30-15:40]休憩

  • [15:40-16:20]Session4「産業界でのハルシネーション対策」

    佐藤琢磨

    大規模言語モデル(LLM)が産業界に浸透する一方、その出力の信頼性確保は依然として根源的な課題です。特に、事実に基づかない情報を生成する「ハルシネーション」は、実用化における喫緊の課題となっています。この現象は、学習データ、学習プロセス、推論機構など、モデルのライフサイクル全体に関わる複合的な要因によって生じます。そのため、完全な抑制は極めて困難です。そこで本講演では、ハルシネーションの発生を前提とし、その影響を制御する実践的なアプローチに着目します。具体的には、専門家による確認作業を支援することで、検証負担の軽減と信頼性確保の両立を目指します。特に、金融や医療といった高度な正確性が求められるミッションクリティカル領域において、この視点は不可欠です。LLMを現場で安全に活用していくための方策を共有します。

    佐藤 琢磨(日本電気株式会社 AIプラットフォームサービス統括部)

    【略歴】同志社大学大学院 生命医科学研究科 修士課程修了後、医療機器・医用画像処理の研究開発に従事。2022年にNECへ入社し、高秘匿連合学習、OpenIE、LLMリスク対策を中心に、新規事業開拓から応用研究、価値検証までを一貫して担当。研究技術の可能性を追求しながら、事業展開・社会実装を推進し、研究と事業の橋渡しに取り組んでいる。
  • [16:20-16:25]クロージング

    加藤誠
    加藤 誠(筑波大学 図書館情報メディア系 准教授/国立情報学研究所 情報社会相関研究系 准教授)

  • 参加申込はこちら
  • シェアする
  • ポスト
  • noteで書く
  • LINEで送る