4W-04
複数粒度の係り受け関係に基づくTransformerニューラル機械翻訳
○佐々木拓馬,田村晃裕,加藤恒夫(同志社大)
Transformerニューラル機械翻訳(NMT)は,入力文の構造を考慮することで性能改善が行われている.入力文の構造として係り受け関係を考慮する従来のTransformer NMTでは,翻訳対象の言語に依らず一律に単語単位の係り受け関係が使われている.しかし,日本語の文構造は,文節単位の係り受け関係で表すことが多い.そこで本研究では,単語単位の係り受け関係と共に文節単位の係り受け関係を自己注意機構で考慮するTransformer NMTを提案する.ASPECデータを用いた日英翻訳実験の結果,細かい粒度の係り受け関係から順に低層の自己注意機構で考慮することで性能が改善することを確認した.