6S-08
事前訓練済み系列変換モデルに基づくやさしい日本語への平易化
本研究では、所与の日本語文を「やさしい日本語」へと自動変換する日本語のテキスト平易化に取り組む。
テキスト平易化は、難解文と平易な同義文のパラレルコーパスを用いて機械翻訳と同様な系列変換モデルを訓練するのが一般的である。
しかし、大規模なパラレルコーパスを使用可能な機械翻訳とは異なり、小規模なパラレルコーパスしか使用できないテキスト平易化では充分な性能が得られていない。
本研究では、テキスト平易化における少資源問題に対処するために、大規模な生コーパス上で事前訓練した系列変換モデルBARTを用いる。
やさしい日本語コーパスを用いた実験の結果、提案手法は日本語のテキスト平易化において最高性能を達成した。
テキスト平易化は、難解文と平易な同義文のパラレルコーパスを用いて機械翻訳と同様な系列変換モデルを訓練するのが一般的である。
しかし、大規模なパラレルコーパスを使用可能な機械翻訳とは異なり、小規模なパラレルコーパスしか使用できないテキスト平易化では充分な性能が得られていない。
本研究では、テキスト平易化における少資源問題に対処するために、大規模な生コーパス上で事前訓練した系列変換モデルBARTを用いる。
やさしい日本語コーパスを用いた実験の結果、提案手法は日本語のテキスト平易化において最高性能を達成した。