2D-03
日本語・英語混合フェイクニュースの検出を通じたBERT分類モデルの比較評価
○呉 雪瑩,藤野 巖,仲 思源(東海大)
近年、ソーシャルメディアを中心にフェイクニュースが多様な形式で拡散しており、異なる言語環境に対応可能な自動分類モデルが求められている。本研究では、英語と日本語フェイクニュースを対象とした、さらに日英混合データによる分類タスクを設定し、BERTモデルを基盤とした分類性能の最適化を行った。モデル学習では、Layer-wise Learning Rate Decay、Warmup スケジューラ、AdamW、混合精度学習などの最適化手法を導入し、従来の単純学習方式に比べて安定性と汎化性能を向上させた。実験結果より、すべてのタスクにおいて精度およびF1スコアが改善し、BERTが日本語・英語双方の分類問題において高い有効性を示すことを確認した。本研究は、異なる言語にまたがるフェイクニュースの自動判別モデルの構築に向けた実践的な知見を提供する。