第240回NL研究発表会

第240回自然言語処理研究発表会

標記の研究発表会はペーパレスで行います(貸し出し用のUSBメモリもご用意しています)。
  • 研究会に登録されている方
    研究報告は開催初日の1週間前(=公知日)に電子図書館(情報学広場)で公開します。
    ※2019年度より研究発表会当日用サイトのID・パスワードの事前配布は行わないことになりました。研究会に登録されている方で研究発表会に参加されない場合の論文のダウンロードには上記電子図書館をご利用くださいますようお願いいたします。

  • 研究会に登録されていない方
    当日受付で資料閲覧用のアカウント情報(URL,ID,PW)をお渡しいたします。
    尚、研究会にご登録いただくことで当研究会のバックナンバーも含めて全て電子図書館でご購読いただけます。登録に関しては 研究会に登録する」のページをご参照ください。

開催案内

情報処理学会 第240回自然言語処理研究会 参加募集

●日程: 2019年6月13日(木),14日(金)

●会場: 遠野市民センター 市民会館 講義室
(〒028-0524 岩手県遠野市新町1番10号)

●懇親会:
6/13に会場周辺にて懇親会を開催する予定です.
参加を希望される方は6月5日(水)までに下記フォームにご回答ください.

https://forms.gle/pXnw4XfTGm8AaSwJ6

●問い合わせ先:
横野 光 (富士通研究所)
yokono.hikaru -at- fujitsu.com

===============================
プログラム

6月13日(木)
[10:30-12:00] 要約(3件)
[12:00-13:30] 昼休み
[13:30-14:30] 招待講演
[14:30-14:45] 休憩
[14:45-16:45] 言語処理応用(4件)
[16:45-17:00] 休憩
[17:00-18:00] 生成(2件)

6月14日(金)
[10:30-11:30] 対話(2件)
[11:30-13:00] 昼休み
[13:00-14:30] 翻訳(3件)
[14:30-14:45] 休憩
[14:45-15:45] 分散表現(2件)
[15:45-16:00] クロージング


6月13日(木)
[10:30-12:00] 要約(3件)

(1) 含意関係に基づく見出し生成タスクの見直し

松丸 和樹 (東京工業大学), 高瀬 翔 (東京工業大学), 岡崎 直観 (東京工業大学)

見出し生成タスクでは,エンコーダ・デコーダモデルの高い性能が報告される一方で,記事内容から逸脱した見出しを生成してしまう問題が指摘されている.この原因のひとつとして,訓練データ中の記事に含まれる情報が不足しているため,記事中に書かれていない内容を無理に見出しに出力するような学習が行われていることが考えられる.そこで我々は,JApanese MUlti-Length Headline Corpus (JAMUL) の記事の先頭3文と記事全文それぞれが正解見出しを含意しているか調べた.その結果,先頭3文では42%,全文でも11.1%の事例で記事が見出しを含意していないことがわかった.続いて,Japanese News Corpus (JNC) の記事先頭3文で学習したエンコーダ・デコーダが出力した見出し文候補に対し,クラウドソーシングを用いて含意関係を付与し,およそ51,000件の含意関係データセットを作成した.構築したデータセットで含意関係認識器を学習し,その含意関係認識器で生成器が出力した見出しの含意割合を判定したところ,生成された見出しの多くは含意と判定されないことがわかった,さらに,含意関係認識器で訓練データをフィルタリングし,見出し生成器を学習する実験を行った.フィルタリングしない訓練データで学習した場合との比較により,訓練時の記事の情報不足が見出し生成器に悪影響を及ぼし,含意しない見出しを生成する一因になっていることが分かった.

(2) 確信度に基づく退院時サマリの分析

安道 健一郎 (首都大学東京/理化学研究所 革新知能統合研究センター), 奥村 貴史 (北見工業大学/理化学研究所 革新知能統合研究センター), 小町 守 (首都大学東京), 松本 裕治 (奈良先端科学技術大学院大学/理化学研究所 革新知能統合研究センター)

医療現場において,医師は極めて多忙であると言われている.その要因の一つに,各種の医療文書の作成に要する業務負担が挙げられる.適切な文書作成支援技術による業務負担の軽減は,医師の勤務負担の軽減を通じて我が国の医療の発展に大きく貢献することができる.そこで本研究では,医師が入院患者を退院させる際に作成する医療文書である「退院時サマリ」に着目した.この書類は,医師が記載する「入院カルテ」より要約されて作成される文書であり,一般に入院に至るまでの経緯に関する記載と,入院後に生じた経過の記載から成り立つ.退院時サマリを観察すると,「入院前の記載」は入院に至る経緯について書かれており,事実に基づく記述が多い.一方,「入院中の記載」は診断や治療など,医師による推論を通した非事実に関する記述が多く含まれる.もしこの観測が正しければ,退院サマリにおける「入院前の記載」の大部分は入院カルテから抽出型要約により作成できる可能性がある.そこで,退院時サマリの自動作成へ向けた調査として,確信度の観点から入院カルテが退院時サマリへといかに要約されているかの分析を試みた.確信度とは,文が言及する事象が確定的な事実についてのものか,そうでないかを評価したものである.本研究では「入院前の記載」と「入院中の記載」について,この確信度と、抽出文であるか否かとの関係を分析した.また,サマリにおける各文の確信度と文書中の位置関係を考察した.これらの結果は,今後,退院サマリを自動生成するための手法を検討するうえで,基礎的な知見となることが期待される.

(3) コピー機構を用いたクエリ指向ニューラル生成型要約

石垣 達也 (東京工業大学), 黃 瀚萱 (国立台湾大学), 陳 信希 (国立台湾大学), 高村 大也 (産業総合技術研究所/東京工業大学), 奥村 学 (東京工業大学)

本研究では,原文書に加えクエリを入力として受け取るクエリ指向要約課題を扱う.
ニューラルネットワークが本課題に適用される以前の要約器においては,原文書とクエリでの重複語を要約により含めることで,性能が向上することが報告されている.
本研究では,コピー機構を用いて原文書とクエリでの重複語をより要約に含めやすくする仕組みをニューラルネットワークに基づく生成型要約器において実現する.
クエリ指向設定に適用可能なコピー機構として,原文書からコピーするモデル,原文書とクエリの重複語をコピーするモデル,重複語とその周辺語をコピーするモデルを提案する.
実験より,重複語とその周辺語をより要約に含めるよう設計したコピー機構が良い性能を示したことを報告する.
この結果はニューラルネットワーク以前の要約器において,効果的であった重複語を含める方策が,ニューラルネットワークに基づく要約器においても有効であることを示すものである.

[13:30-14:30] 招待講演
(4) ニューラル言語モデルの研究動向

高瀬 翔 (東京工業大学)

言語モデルは与えられた系列の尤もらしさを計算するモデルであり、機械翻訳や音声認識など、応用範囲は多岐にわたる。とりわけ、近年のニューラル言語モデルの発展は目覚ましく、ベンチマークとして用いられることの多いPenn  Treebankコーパスにおいて、劇的な性能向上が報告されている。本講演では、これら最新のニューラル言語モデルの研究動向を概観する。特に、トップスコアを達成したと謳う研究では、どの要因が性能向上に寄与したか判然としないものもあるため、力の及ぶ限りで整理を行いたい。さらに、ニューラル言語モデルの発展として、ELMoやBERTのような埋込表現にもふれた上で、今後の方向性について議論を行う

[14:45-16:45] 言語処理応用(4件)
(5) Clustering of Text Documents using Features from Latent Semantic Analysis

曾 恕慈 (岩手県立大学), 呂 侑靜 (岩手県立大学), チャクラボルティ ゴウタム (岩手県立大学), 陳 隆昇 (朝陽科技大学)

Text documents could be classified using words as features. As the number of words in the vocabulary is large, the dimension of the document space will be very high. In that case, the feature vector for a document is too long, and clustering and classification algorithms fail. In this work, we used Latent Semantic Analysis, which is actuated by Singular Value Decomposition (SVD). After SVD, we have a compact representation of the documents, which are clustered. The ground truth is verified manually. In this work, we used tourists' comments as documents. In this work, we first cluster the comments into two, and investigate the factors behind these two classes. It is verified, that the documents are automatically separated into groups of positive comments and negative comments. Our final goal is to extract factors that lead to positive comments and those leading to negative comments. and help promoting tourist business by focusing on the factors that really matters for the customers.


(6) レビュー文章集合を用いたマイクロドメインのための概念階層オントロジー構築

谷江 博昭 (株式会社リクルート), 三澤 賢祐 (株式会社リクルート), 大内 啓樹 (理化学研究所 AIP センター/東北大学)

本稿では,あるエンティティに関するテキスト集合から効率的に知識ベースを構築することを目指す.より具体的には,施設の評判などを記述したレビュー文章集合から,その施設にある設備やサービスを抽出し,それらの情報を体系化する.構築した知識ベースは,検索システムやQAシステムへ活用する.提案手法では,レビュー文章集合から,知識ベースに必要なドメイン個別のオントロジーを構築する.特に,解析したいテキストで学習した単語埋め込みを利用することによって,解析対象のドメインに適したオントロジーを得る.本稿では,オントロジー の質の定量的・定性的分析を行い,単語埋め込みの違いによる効果を検証する.

(7) Sim2RealQA:ニューラル質問応答モデルの仮想世界から現実世界への転移

宮西 大樹 (国際電気通信基礎技術研究所), 前川 卓也 (大阪大学大学院 情報科学研究科), 川鍋 一晃 (国際電気通信基礎技術研究所)

日常生活で起きた出来事に対して質問応答できるようになれば、人間の記憶支援・忘れ物や落とし物の検索・人の監視や見守りといった実世界に根ざしたシステムが実現できるようになる。従来の実世界質問応答では、近年数多くの質問応答の課題で高い性能を示すニューラルネットワークで構成した質問応答モデルが用いられてきた。しかし、実世界のデータをラベリングする作業はプライバシーの問題を引き起こすため、実世界の質問応答データセットを作成することは困難である。その一方で、ニューラルネットワークを用いた質問応答モデルは、その能力を発揮するために大量の学習データが必要になる。本論文では、この制限を克服するためSimulation to Real QAという新たな枠組みを提案する。本手法では、プライバシーを侵害することなく十分な量の学習データを作るため、人の日常生活を模倣するシミュレータを使用する。そして、現実世界の質問応答の問題を高精度に解くため、仮想世界の日常生活行動のデータをもとに作成した大量の質問応答データセットを用いてニューラル質問応答モデルを訓練する。Simulation to Real QAの枠組みを評価するため、我々は実際の家屋とライフシミュレーションゲーム内の日常生活行動のログデータをもとに仮想・現実双方の質問応答データセットを作成した。このデータセットを用いて、実世界の解答ラベルがない場合、仮想世界のデータが実世界の質問応答に役立つことを実証する。

(8) 単語の難易度を考慮したテキストの難易度制御

西原 大貴 (大阪大学大学院情報科学研究科), 梶原 智之 (大阪大学データビリディフロンティア機構), 荒瀬 由紀 (大阪大学大学院情報科学研究科)

本稿では言語学習アプリケーションでの使用を目的として,特定の学年に合わせたテキストの難易度制御を行う.提案手法は,文および単語の両方の難易度を考慮することで,入力文を目標の難易度の文へ言い換える.まず,文の難易度はテキスト平易化モデルの入力として目標の難易度を加えることで考慮される.また,単語の難易度は目標の難易度に応じて各単語の損失を重み付けすることで考慮される.既存手法は文の難易度のみを考慮しており,文長制御など構文的な平易化には長けるが,難解な単語を出力してしまう可能性がある.一方,提案手法では構文と単語の両方の難易度制御に成功する.実験の結果,提案手法がBLEUおよびSARIの両方を改善することが明らかになった.

[17:00-18:00] 生成(2件)
(9) 指示文・説明文とロボット動作の対応学習

吉野 幸一郎 (奈良先端科学技術大学院大学), 脇本 宏平 (奈良先端科学技術大学院大学), 中村 哲 (奈良先端科学技術大学院大学)

ロボットが生活の中に入ってくるにつれて、ロボットの動作系列と自然言語による指示文・説明文を結びつける重要性が高まっている。本研究では、ロボットの動作系列と自然言語による指示文・説明文の対応を直接学習することを指向して、ロボットが持つアクチュエータの動作系列やカメラ情報から、行った行動を説明する自然言語文を生成するEnd-to-Endのモデルを構築した。ロボットの動作系列は非常に多くのサンプル系列を持つため、少量の学習データから対応を学習することは難しい。この問題を解決するため、ロボット動作の教師なし分節化、および注意機構を導入して対応学習を行った。実験の結果、提案するモデルは分節化を行わないモデルよりも適切な動作説明文を生成できることが示された。

(10) Captioning Events in Tourist Spots by Neural Language Generation

グエン マイ (奈良先端科学技術大学院大学), 吉野 幸一郎 (奈良先端科学技術大学院大学), 鈴木 優 (奈良先端科学技術大学院大学), 中村 哲 (奈良先端科学技術大学院大学)

We present an application that captions events in tourist attractions by summarizing various information sources in natural language descriptions.
The system is divided into two parts: what-to-say, which summaries information into structured data, and how-to-say, which produces natural language captions from input meaning representation.
In what-to-say, information from several information sources, such as infrared sensors and social media, are extracted into a semantic frame.
In how-to-say, we utilized semantically-conditioned long short-term memory neural networks to generate natural language captions for giving information to users in an understandable way.
An empirical evaluation of the system shows the quality of generated text across five automated metrics.
The generated sentences are used in the application system for helping visitors.
The subjective evaluation shows the usefulness of the proposed system.


6月14日(金)
[10:30-11:30] 対話(2件)
(11) 高齢者発話予測システムの検討

魏 琪 (Hmcomm株式会社), 若山 龍太 (Hmcomm株式会社)

高齢者介護の現場において、人材不足、外国人労働者参入などに伴い高齢者とのコミュニケーションの重要性が高まっている。近年のディープラーニング技術の進化により音声認識システムの音声認識性能は大幅な向上を見せているものの、高齢者音声に対する音声認識精度については、青年層や壮年層に対する音声認識精度と比較するとより低いという現実がある。本研究は、高齢者音声認識精度を高めることを目標とし、音声認識結果から発話予測を行うシステムを開発する。Word2vecモデルを使い、音声認識の結果、平仮名などの組み合わせから、音声認識結果に基づく発話予測を行う。

(12) 説得対話システムにおける感情表現を反映させた応答生成モデルの構築

浅井 沙良 (奈良先端科学技術大学院大学), 品川 政太朗 (奈良先端科学技術大学院大学), 吉野 幸一郎 (奈良先端科学技術大学院大学), サクリアニ サクティ (奈良先端科学技術大学院大学), 中村 哲 (奈良先端科学技術大学院大学)

感情表現が説得成功率の向上に寄与することが知られており、感情表現を用いた説得対話システムの研究が行われていた。こうした説得を目的とするシステムは、説得のために最適化された感情状態と文脈に応じた自然な発話を行う必要がある。条件付き文生成の研究では、条件ラベルを言語モデル、デコーダに入力することが行われてきたが、与えた条件が必ずしも反映されないという問題があった。この問題に対して本研究では、文生成を行う際のデコーダで入力された感情ラベルを予測することで、指定された感情状態を反映させた応答文を生成する手法を提案した。

[13:00-14:30] 翻訳(3件)
(13) ニューラル機械翻訳に対する注意言語モデル

黒澤 道希 (首都大学東京), 小町 守 (首都大学東京)

機械翻訳はニューラルネットワークの活用により,流暢性の高い出力を得られることが報告された.近年ではさらなる流暢性の向上が行われており,その一つに言語モデルを用いた研究がある.
言語モデルを用いる先行研究においては,翻訳機構と言語モデル機構の2つを用意し双方の情報を用いており,予測を同尺度もしくは動的に重み付けして出力単語を予測するものや言語モデルの予測に翻訳機構の情報を与えるものがある.しかしながら,機械翻訳においては流暢性の向上だけではなく,妥当性を担保することも求められる.つまり翻訳機構の情報を活用し言語モデル機構の情報を補助的に用いるべきであるが,先行研究においては双方の情報を両方用いて出力単語を予測している.
そこで本研究では翻訳機構(TM)と言語モデル機構(LM)の2つを用意するが,翻訳機構の予測の補助的要素として言語モデル機構の予測に対してアテンションを取ることにより,妥当性を保持した上で出力を流暢にするモデルを提案する.英日翻訳において言語モデル機構を用いた翻訳の先行研究と比較した結果,BLEUスコアとRIBESスコアが向上することを示した.この結果より,英日ニューラル機械翻訳に対しても言語モデル機構を追加することが有用であり,その中でもアテンションが効果的であることを示した.また,言語モデル機構の予測に対するアテンションと実際の出力を分析することにより,言語モデルが文法的性質を用いて予測を補助するために有用な情報である可能性が高いことを合わせて報告する.

(14) 逆翻訳によるデータ拡張に基づく文脈考慮型ニューラル機械翻訳

杉山 普 (東京大学), 吉永 直樹 (東京大学生産技術研究所)

会話や講演など省略表現の多いドメインや、日英のように言語的に距離の遠い言語対の翻訳では、代名詞のゼロ照応や多義語など原言語では曖昧な情報を目的言語においては詳細化する必要がある場合が多く、文を超えた文脈の考慮が必要となる場合が多い。そのため訳したい文の前後の文を追加情報として参照しながら翻訳する文脈考慮型の翻訳モデルが研究されている。しかし対訳データ作成時の翻訳コストの高さもあり、現状では高精度のモデルの学習に必要な大規模な対訳コーパスが利用できない状況にある。そこで本研究では大量の目的言語の単言語コーパスを逆翻訳することで疑似対訳データを作成し、これを利用して文脈考慮型ニューラル翻訳モデルの学習をする。実験ではIWSLT2017コーパスを対訳コーパス、BookCorpusを目的言語の単言語コーパスとして提案手法の学習と評価を行い、その有効性を検証した。

(15) 授業アーカイブの翻訳字幕自動作成システムの試作

須藤 克仁 (奈良先端科学技術大学院大学), 林 輝昭 (奈良先端科学技術大学院大学), 西村 優汰 (奈良先端科学技術大学院大学), 中村 哲 (奈良先端科学技術大学院大学)

大学・大学院の国際化に伴い英語での授業は増加しているが,依然として多くの授業は日本語でのみ開講されており,日本語を解さない学生が受講できない授業が多く存在するのが実情である.この問題に対応すべく,我々は日本語で行われる授業の音声認識と日英機械翻訳によって録画された授業映像に付与する英語の字幕を自動作成するシステムの開発を行っている.本稿では本開発プロジェクトで構築しているコーパス,システムの構成および要素技術,試作システムにおける予備実験の結果を報告し,今後の展望について述べる.

[14:45-15:45] 分散表現(2件)
(16) BERT による単語埋め込み表現列を用いた文書分類

田中 裕隆 (茨城大学工学部情報工学科), 曹 鋭 (茨城大学大学院理工学研究科情報工学専攻), 白 静 (茨城大学大学院理工学研究科情報工学専攻), 馬 ブン (茨城大学大学院理工学研究科情報工学専攻), 新納 浩幸 (茨城大学大学院理工学研究科情報科学領域)

BERT は双方向 Transformer の Encoder 部分を利用した事前学習モデルであり、入力文あるいは入力文対を、単語埋め込み表現列に変換する。現在、BERT を利用することで、各種の自然言語処理システムの性能が大きく向上しているが、実際のタスクに対して、BERT をどのように利用するかは個々のタスクに応じて考える必要がある。文書分類の場合、特殊 Token である [CLS] の埋め込み表現を文書の特徴ベクトルとして扱い、事前学習モデルを含めた分類器のモデル全体を Fine-Tuning する方法が標準的であるが、ここでは文書に対してBERT が出力する単語埋め込み表現列の平均ベクトルと bag of words モデルによる特徴ベクトルのそれぞれを正規化した後に、それらを連結したベクトルを作成し、それを文書の特徴ベクトルとする手法を試みる。

(17) BERT の下位階層の単語埋め込み表現列を用いた感情分析の教師なし領域適応

白 静 (茨城大学大学院理工学研究科情報工学専攻), 田中 裕隆 (茨城大学工学部情報工学科), 曹 鋭 (茨城大学大学院理工学研究科情報工学専攻), 馬 ブン (茨城大学大学院理工学研究科情報工学専攻), 新納 浩幸 (茨城大学大学院理工学研究科情報科学領域)

BERT は Transformer で利用される Multi-head attention を 12層(あるいは24層)積み重ねたモデルである。各層の Multi-head attention は、基本的に、入力単語列に対応する単語埋め込み表現列を出力しているが、BERT を feature-based で利用する場合、各タスクで利用されるのは最上位層の単語埋め込み表現列である。一方、領域適応ではソース領域とターゲット領域の共通部分空間に各領域のデータを写影する手法が有力である。BERT の出力する単語埋め込み表現列から共通部分空間上の特徴ベクトルを構成することを考えた場合、最上位の層は BERT の学習で利用したタスクに依存した形になるため、下位層の単語埋め込み表現列の方が領域適応に対しては適していると考えられる。ここでは、この点を確認するために行った感情分析の領域適応の実験を報告する。

=============================
●研究報告のペーパーレス化
本研究会はペーパーレスでの開催となり,印刷した研究報告の配布を行いません.また,特許出願の公知日(研究報告の公開日)が従来より1週間早まりますので,ご留意ください.

※自然言語処理研究会に登録されている方
研究報告は研究発表会の1週間前に電子図書館と当日閲覧用サイトで公開します.当日は資料をプリントアウトしてご持参いただくか,ご自身のPCにダウンロードのうえ,ご持参ください.

情報処理学会電子図書館(情報学広場)
https://ipsj.ixsq.nii.ac.jp/ej/ (ユーザ登録が必要です)
当日閲覧用サイト
http://www.ipsj.or.jp/sig-reports/

※自然言語処理研究会に登録されていない方
当日受付で本研究発表会の資料閲覧用にUSBメモリを貸し出します.当日はノートPC等をご持参ください.なお,当研究会にご登録頂くことで,本研究会の資料をバックナンバーも含めて電子図書館で購読できます.登録されていない方は,是非この機会に研究会に登録してください(登録まで最大3日かかりますのでご留意ください).

★研究会への登録をお勧めします
年に2回以上の参加を見込まれる方は,研究会に登録される方が(ほぼ)お得になります.研究会登録は以下のウェブサイトから行えます.
http://www.ipsj.or.jp/kenkyukai/toroku.html

●研究会幹事団
主査:
関根聡  (理化学研究所)
幹事:
木村泰知 (小樽商科大学)
笹野遼平 (名古屋大学)
進藤裕之 (奈良先端科学技術大学院大学)
中澤敏明 (東京大学)
西川仁  (東京工業大学)
桝井文人 (北見工業大学)
横野光  (株式会社富士通研究所)
運営委員:
内海慶  (株式会社デンソーアイティーラボラトリ)
内田ゆず (北海学園大学)
江原遥  (静岡理工科大学)
大内啓樹 (理化学研究所/東北大学)
亀甲博貴 (京都大学)
小林暁雄 (理化学研究所)
斉藤いつみ(日本電信電話株式会社)
佐々木稔 (茨城大学)
貞光九月 (フューチャー株式会社)
佐藤敏紀 (LINE株式会社)
須藤克仁 (奈良先端科学技術大学院大学)
土田正明 (株式会社コトバデザイン)
成松宏美 (日本電信電話株式会社)
西田京介 (日本電信電話株式会社)
羽鳥潤  (株式会社 Preferred Networks)
牧野拓哉 (株式会社富士通研究所)
増村亮  (日本電信電話株式会社)
馬緤美穂 (ヤフー株式会社)
松林優一郎(東北大学)
三輪誠  (豊田工業大学)
森田一  (株式会社富士通研究所)
谷中瞳  (理化学研究所)
吉川克正 (株式会社コトバデザイン)

発表募集

情報処理学会 第240回自然言語処理研究会 発表募集
https://nl-ipsj.or.jp

●日程: 2019年6月13日(木),14日(金)

●会場: 遠野市民センター 市民会館 講義室
(〒028-0524 岩手県遠野市新町1番10号)

●発表申込締切: 2019年5月15日(水)
●原稿締切: 2019年5月22日(水) 23:59まで※厳守

●原稿ページ数:2ページ以上
電子化にともないページ数に上限はありません.
※ただし20ページを越える場合は事前にご連絡ください.

●発表時間予定: 一般講演形式 1件30分 (発表20分、質疑10分)

※ 発表時間の調整について
従来の一般講演形式(発表20分,質疑10分)に加えてショート形式(発表10分,
質疑10分),討議形式(発表10分,質疑討論20分)など,発表者からの要望
に応じて発表の合計時間を調整します.アイデアレベルの研究
の紹介や,研究の詳細まで話したいので時間がほしい,などの要求を発表
申込の備考欄にご記入いただければ,それらを考慮してプログラムを作成
します.ぜひご活用ください.

●優秀研究賞
研究会に投稿された予稿の中から特に優れたものを優秀研究賞として表彰
する予定です.

●発表申込先: 下記専用サイトよりお申込みください.
https://ipsj1.i-product.biz/ipsjsig/NL/
(研究会ホームページからもアクセスできます)

●問い合わせ先:
横野光((株)富士通研究所)
E-mail: yokono.hikaru (at) fujitsu.com

●今後の予定
第241回研究会 2019年9月予定

★受け付けは先着順で行なっております
多数のお申し込みを頂いた場合,次回の研究会にまわって頂くよう
お願いする場合があります.なるべく早めにお申し込み下さい.

★締め切り後の発表キャンセルは原則としてできません
発表申し込み後にキャンセルの必要が生じた場合は,至急ご連絡ください.
発表申込後,原稿提出締め切りまでに原稿が到着しない場合には,幹事団の
判断により発表を取り消しさせていただくこともあります.

★論文提出締切後の原稿差し替えはできません
論文提出締切後は,訂正版のアップロードやウェブ上での配布などの原稿
差し替えは一切できませんので,予めご留意ください.
※正誤表の掲載が可能な場合がありますのでご相談ください.