イベント企画
トップコンファレンスセッション2-1
パターン認識・メディア理解
9月1日(火) 13:10-15:10
第4イベント会場
座長 内田祐介(Mobility Technologies)
座長補佐 川嶋宏彰(兵庫県大)
13:10-13:30 講演(1) 【タイトル邦題】 自己教師あり学習による変化領域の推論を活用した弱教師あり領域分割
下田 和(サイバーエージェント AI Lab)
【原発表の書誌情報】 Shimoda, W., Yanai, K., Self-Supervised Difference Detection for Weakly-Supervised Semantic Segmentation, Proc. of IEEE/CVF Intternational Conference on Computer Vision (ICCV), pp. 5207-5216 (2019)
【概要】 画像における物体のカテゴリ情報のみから領域分割を学習する手法を弱教師あり領域分割と呼ぶ。本研究においては、自己教師あり学習による変化領域の推論結果を活用することにより、弱教師あり領域分割の精度を向上させる手法を提案した。
【略歴】 2017年度学術振興会特別研究員(DC1)として弱教師あり領域分割についての研究活動に従事。2020年電気通信大学大学院博士後期課程修了後、サイバーエージェントに中途入社。クリエイティブリサーチグループにてComputer Vision分野における画像に関連した広告クリエイティブの研究開発に従事。
13:30-13:50 講演(2) 【タイトル邦題】 分かりやすく対象を指示する説明文生成
田中 幹大(東京大学 大学院情報理工学系研究科知能機械情報学専攻原田・椋田研究室)
【原発表の書誌情報】 Tanaka, M., Takayuki, I., Kenichi, N., Ikuro, S., Ushiku, Y., Harada, T.: Generating Easy-to-Understand Referring Expressions for Target Identifications, Proc. of the IEEE International Conference on Computer Vision (ICCV), pp.5794-5803 (2019).
【概要】 人とロボットなどの知的エージェントの共生環境において、両者が見ている対象を共有することは重要であり、自然言語を介することで自然な対話が実現できる。実世界では背景が複雑になるにつれて対象が目立たなくなり、伝えるのが難しくなるため、対象を容易に発見できるような説明をすることが重要となる。そこで、本研究では人が早く正確に対象を特定できる説明文の生成を目的とし、周囲の目立ったものと関連づけて分かりやすく対象を指示するシステムを構築した。
【略歴】 2018年東京大学工学部機械情報工学科卒業、2020年東京大学大学院情報理工学系研究科知能機械情報学専攻修士課程修了、同年同博士課程入学、現在在学中。原田・椋田研究室にて、画像認識や自然言語処理の研究を行っている。
13:50-14:10 講演(3) 【タイトル邦題】 分離した特徴表現の学習手法を用いたレアイベントの検知手法
濱口 竜平(産業技術総合研究所 人工知能研究センター)
【原発表の書誌情報】 Hamaguchi, R., Sakurada, K., Nakamura, R.: Rare Event Detection Using Disentangled Representation Learning, Proc. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp.9327-9335 (2019)
【概要】 この研究では画像ペアから低頻度で発生するイベントを検出する手法を提案する。低頻度なイベントとは、例えば建物の建造といった都市の変化や工場における不良品の発生、各種疾患による医療データの変化等様々であるが、このようなイベントは十分な数の正例を収集することが難しいため、クラスインバランスな学習条件となることが多い。加えて、画像ペアには照明条件の変化や背景の動きなど検出対象外のイベントが多数含まれており、クラスインバランスの問題とも相まって誤検出を発生しやすい。このような問題に対して、本研究では収集の容易な負例の画像ペアだけを用いて、対象外のイベントに対して感度の高い特徴表現とロバストな特徴表現を分離して学習する手法を提案する。4つの変化検出データセットを用いた実験では、対象外のイベントにロバストな特徴表現を用いることで、少数の正例しか得られない場合でも分類器の精度を向上させることができることを示した。
【略歴】 2011年東京大学工学部卒業。2013年東京大学大学院工学系研究科修士課程修了。2016年東京大学大学院工学系研究科博士課程単位取得退学。同年株式会社パスコ入社。同年より産業技術総合研究所人工知能研究センター特定集中研究専門員。深層学習を用いた衛星画像解析や変化検知手法の研究に従事。
14:10-14:30 講演(4) 【タイトル邦題】 映像要約評価の再考
大谷 まゆ(サイバーエージェント AI Lab リサーチサイエンティスト)
【原発表の書誌情報】 Otani, M., Nakashima, Y., Rahtu, E., Heikkilä, J.: Rethinking the Evaluation of Video Summaries, Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp.7596-7604 (2019).
【概要】 映像要約とは元の映像の重要なコンテンツを失うことなく、短い映像に編集する技術です。この研究では映像要約の評価に使われている2つの主要なデータセットを詳細に分析し、既存の評価手法の課題を明らかにします。
【略歴】 2018年に奈良先端科学技術大学院大学情報科学研究科博士後期課程修了。博士(工学)。同年、サイバーエージェントに入社し、研究組織AI Labにおいてコンピュータビジョン、機械学習に関する研究に従事。
14:30-14:50 講演(5) 【タイトル邦題】 外耳道伝達関数を用いた頭部状態認識手法
渡邉 拓貴(北海道大学 情報科学研究院 助教)
【原発表の書誌情報】 Amesaka, T., Watanabe, H., Sugimoto, M.: Facial Expression Recognition Using Ear Canal Transfer Function, Proc. of International Symposium on Wearable Computers (ISWC), pp. 1–9 (2019).
【概要】 ヒアラブルデバイスに求められる機能の一つとして、ハンズフリーのデバイス操作が挙げられる。本研究では頭部状態に伴って外耳道の形状が変形することに着目し、ヒアラブルデバイスから発信した超音波信号によって頭部状態を認識する手法を提案した。
【略歴】 2012年神戸大学工学部電気電子工学科卒業。2014年同大学大学院工学研究科博士前期課程修了。2017年同大学大学院工学研究科博士後期課程修了。同年より北海道大学大学院情報科学研究院助教、現在に至る。博士(工学)。ウェアラブルコンピューティング、ユビキタスコンピューティングの研究に従事。