情報処理学会 第87回全国大会

4Q-01
BERTを用いたゼロ照応解析における複数格同時学習手法
○小寺和弥,穴田 一(東京都市大)
大規模言語モデルは多くの自然言語処理タスクの精度向上に寄与し,幅広いシステムに活用されている.それらをさらに精度の高いものにしていくためのゼロ照応解析の研究が盛んに行われている. 本研究では,事前学習モデルの事前学習タスクに対するファインチューニングタスクの不一致の解消や,異なるタスクの同時学習の有効性を踏まえたゼロ照応解析に取り組む手法を提案する.具体的には,入力文章にチャンクを連結する方法を用いる際,複数格の同時解析を可能にするために,複数格を同時に含んだチャンクを連結する手法を提案する.また,各格の解析で使用する特長量を異なる層から取り出すモデルにも取り組み,精度向上を試みた.