ディープラーニング

第4回:ディープラーニングの活用と基盤

 

日  時:
2017年10月17日(火)
会  場:
【本会場】日本大学理工学部駿河台校舎1号館2F121大会議室(東京都千代田区)
【遠隔会場】大阪大学中之島センター7F 講義室702(大阪市北区)
受付時間:
9:30~

ディープラーニング(深層学習)が音声認識や画像認識の分野でブレークスルーを起こしてから5年ほどが経った。その間に、多層の階層的な神経回路網や再帰結合のある神経回路網を、安定的に、高速に学習させるための様々な技術が生み出され、その応用分野も、画像、映像や音声にクラスラベルをつける認識タスクから、画像の説明文の生成、対話、翻訳など、テキスト処理・理解にかかわる分野などへと広がっている。このセミナーでは、ディープラーニングの実世界データへの応用、使い方について、研究と応用の第一線で活躍する方々にご講演いただく。

樋口 知之様 統括コーディネータ:樋口 知之(大学共同利用機関法人 情報・システム研究機構 統計数理研究所 情報・システム研究機構 理事、統計数理研究所長)
【略歴】1989年東京大学理学系研究科博士課程修了後、文部省統計数理研究所に入所。2011年より情報・システム研究機構理事 統計数理研究所長。専門はベイジアンモデリング。最近は、データ同化およびエミュレーション(シミュレーションの機械学習による簡便代替法)の研究に注力している。日本統計学会、応用統計学会、電子情報通信学会、人工知能学会、日本応用数理学会、日本バイオインフォマティクス学会、日本マーケティング・サイエンス学会、International Statistical Institute、American Geophysical Union等の各学会の会員。また、日本学術会議の数理科学及び情報学分野の連携会員でもある。

オープニング[10:00~10:10]

麻生 英樹様 コーディネータ:麻生 英樹(国立研究開発法人産業技術総合研究所 人工知能研究センター 副研究センター長)
【略歴】1981年東京大学工学部計数工学科卒業。1983年同大学院工学系研究科情報工学専攻修士課程修了。同年通商産業省工業技術院電子技術総合研究所入所。1993年から1994年ドイツ国立情報処理研究センター客員研究員。現在、国立研究開発法人産業技術総合研究所人工知能研究センター副研究センター長。経験から学習する能力を持つ知的情報処理システムの研究に従事。

セッション1[10:10~11:10]

ディープラーニングの発展と展望

インターネット上のサービスを中心に、大量のデータが収集され、機械学習に利用可能になったことをひとつの背景として、そうした大量のデータから階層的な内部表現を持つ複雑なモデルを学習するための技術であるディープラーニング(深層学習)の研究が復興、進展し、パターン認識、機械翻訳、ゲーム、ロボティクスなど様々な分野でブレークスルーを成し遂げている。それを支える技術として、ソフトウェアツールや、高速化のためのハードウェアの研究開発も進められている。また、画像・イメージや記号の生成と使用といった知的な情報処理の本質に迫ろうとする研究も生まれている。この講演では、本セミナー全体の導入として、ニューラルネットワークによる情報処理の研究の歴史、および人工知能の研究の歴史を振り返り、深層表現学習としてのディープラーニングの本質を探るとともに、今後の方向性について考えたい。

麻生 英樹様 講師:麻生 英樹(国立研究開発法人産業技術総合研究所 人工知能研究センター 副研究センター長)
【略歴】1981年東京大学工学部計数工学科卒業。1983年同大学院工学系研究科情報工学専攻修士課程修了。同年通商産業省工業技術院電子技術総合研究所入所。1993年から1994年ドイツ国立情報処理研究センター客員研究員。現在、国立研究開発法人産業技術総合研究所人工知能研究センター副研究センター長。経験から学習する能力を持つ知的情報処理システムの研究に従事。

セッション2[11:20~12:20]

ディープラーニングと画像認識

ディープラーニング(深層学習)が画像認識において衝撃的なブレークスルーを起こしてから既に久しいが、現在でもその進歩は加速度的に続いており、更なる性能向上やさまざまな応用技術の実現が驚異的な速さで続いている。本講演では、画像認識におけるディープラーニングの基礎と最新動向について解説を行う。前半では、画像を扱うための基本となる畳み込みニューラルネットワークを中心に、そのトレンドやコア技術の進展について紹介し、議論を深める。後半では、物体検出・セマンティックセグメンテーション、動画像認識等のより高度な画像認識タスクを実現した応用技術や、画像・映像に対する説明文付与や質疑応答、画像パターンの生成・合成、マルチモーダル学習、行動戦略の学習などの、他分野の技術との融合に基づくより挑戦的な人工知能システムの実現例について紹介する。

中山 英樹様 講師:中山 英樹(東京大学 大学院情報理工学系研究科 講師)
【略歴】2011年3月東京大学大学院 情報理工学系研究科知能機械情報学専攻博士課程修了、2008年4月-2011年3月日本学術振興会特別研究員(DC1)、2012年8月東京大学大学院情報理工学系研究科創造情報学専攻講師。現在に至る。2016年1月産総研AIセンター客員研究員、画像・映像、および自然言語を横断的に認識理解するための基礎技術に興味を持ち、深層学習・表現学習をはじめとする機械学習・データマイニング手法等の研究を行っている。PRMU研究奨励賞、情報処理学会大会奨励賞等を受賞。

セッション3[13:25~14:25]

深層学習の音声認識への応用

2009年頃、音声認識分野において深層学習が登場し、認識精度を飛躍的に高めて注目を集めました。それから7、8年が経ちますが、多くの試行錯誤を経て、その技術は着実に進歩しています。今年春にはIBMとマイクロソフトが、認識精度がついに人間に並んだと発表し、話題になりました。この講演では、まずこれまで深層学習がどんな課題に対しどのようにアプローチしたか、その成果はどうだったかを振り返ります。特に時系列処理に適したニューラルネットワークの開発に重点を置きます。次に、現在、研究が急速に進んでいるテーマについて、特にシステムの複数の構成要素をひとまとめに最適化するEnd-to-End学習について、その現状を解説します。高雑音下の音声の認識、対話音声の認識、音声における非言語・パラ言語情報の認識など、解決すべき課題はまだ数多くあります。最後に、この技術が今後どのように発展していくのか、その将来を展望します。

篠田 浩一様 講師:篠田 浩一(国立大学法人東京工業大学 情報理工学院情報工学系 教授)
【略歴】1989年東京大学修士(理・物理)卒。2001年に東京工業大学より博士号(工学)取得。1989年日本電気(株)入社、1997年から1998年までルーセント・ベル研究所客員研究員。現在、東京工業大学教授。専門は音声認識、映像検索、統計的パターン認識、ヒューマンインタフェース。1998年電子情報通信学会論文賞受賞。2014年から2016年まで情報処理学会音声言語情報処理研究会主査。現在、JST CREST「社会インフラ映像処理のための高速・省資源深層学習アルゴリズム基盤」研究代表者。

セッション4[14:35~15:35]

深層学習の自然言語処理への応用

ディープラーニングは、画像処理や音声処理で大成功を収め、今の人工知能ブームの火付け役となりました。一方、言語処理では記号(例えば単語や文字)による特徴記述がある程度成功していたため、ディープラーニングの破壊力は限定的でした。その後、言語処理でも研究成果の蓄積が進み、ほぼ全てのタスクでディープラーニングおよびニューラル・ネットワークに基づく手法が最高性能を達成するようになりました。本発表では、分散表現、エンコーダー・デコーダー、アテンション・メカニズムなど、言語処理にディープラーニングを適用する際に重要なアイディアを復習します。その後、機械翻訳、質問応答、対話文生成、要約文生成、評判分析、知識獲得、含意関係認識など、様々な言語処理タスクでの応用事例を紹介します。さらに、動画像からのキャプション生成など、ニューラル・ネットワークが言語処理と多様な研究分野・データを結びつける事例も紹介します。

岡崎 直観様 講師:岡崎 直観(東京工業大学 情報理工学院 教授)
【略歴】2007年東京大学大学院情報理工学研究科博士課程修了。2005年英国テキストマイニングセンター・リサーチフェロー、2007年東京大学大学院情報理工学系研究科・特任研究員、2011年より東北大学大学院情報科学研究科准教授を経て現職。専門は自然言語処理、テキストマイニング、機械学習。言語処理学会論文賞、石田實記念財団研究奨励賞、ドコモ・モバイル・サイエンス賞先端技術部門優秀賞、船井学術賞、平成28年度科学技術分野文部科学大臣表彰若手科学者賞、2016年度マイクロソフト情報学研究賞、などを受賞。

セッション5[15:45~16:45]

深層学習フレームワークの設計と実装

本講演では、深層学習フレームワークの設計原則とその実現方法を解説する。今日の深層学習の発展はTensorFlow、Caffe、Chainerなどの深層学習フレームワークに支えられている。フレームワークが低レベルの実装を隠蔽し、典型的なワークフローを提供することで、ユーザーはハイレベルな設計に集中できる。深層学習の研究開発を効果的に進めるには、フレームワークの特性を理解し適切に利用することが重要である。多くのフレームワークは共通した技術スタックに基づいて設計されている。本講演ではまずその技術スタックを解説する。フレームワーク達が類似した構造を持つ一方で、その設計には様々な選択が伴い、フレームワークのcapabilityを決定する。本講演の後半では、フレームワークごとの相違点を解説する。本講演はAAAI-17でのチュートリアルを元にしている。
チュートリアルの詳細はウェブサイトを参照されたい:https://sites.google.com/site/dliftutorial/

大野 健太様 講師:大野 健太(株式会社PreferredNetworks エンジニア)
【略歴】株式会社Preferred Networks・エンジニア。2011年東京大学大学院 数理科学研究科 修士課程修了。同年4月より株式会社Preferred Infrastructure所属、検索・レコメンデーションエンジン導入・運用・サポート、機械学習関連の研究開発などに従事。2015年10月から現職、深層学習関連技術の研究開発、バイオ・ライフサイエンス領域への応用に従事。深層学習フレームワークOSS「Chainer」の開発メンバー。