デジタルプラクティス Vol.10 No.2 (Apr. 2019)

内田祐介氏インタビュー
ディープラーニングのプラクティス

インタビュアー  
篠田浩一(東京工業大学)      福島俊一(科学技術振興機構)

現在はDeNAのAIシステム部,以前は大手通信事業者の研究所にも所属していた内田祐介氏に,基礎研究からビジネス開発までの幅広い経験や,最先端の技術開発の現場の様子を伺った.

内田 祐介氏(株式会社ディー・エヌ・エー)
2007年京都大学大学院情報学研究科博士前期課程修了.同年KDDI(株)に入社.(株)KDDI研究所にて映像検索,大規模特定物体認識,画像処理に関する研究に従事.2016年東京大学大学院博士後期課程修了.2017年より株式会社ディー・エヌ・エーにて,深層学習を用いた画像認識・物体検出の研究開発に従事.現在,株式会社ディー・エヌ・エー AIシステム部 副部長.

福島 今回の「ディープラーニングのプラクティス」特集を企画した編集委員の福島です.ゲストエディタをお願いした篠田先生と2人で,本日のインタビュアーを担当させていただきます.まずは内田さんがどのようなことに取り組んでこられたのか,自己紹介からお願いできますか.

内田氏の自己紹介

内田 私は2007年に修士を出て,大手通信事業者に就職し,研究所に配属されました.修士時代は通信,オペレーションズリサーチ系の研究室に所属していましたが,研究所に配属されてからは画像系の研究をやることになりました.修士時代の専門とは違う分野への挑戦でしたが,最初の2~3年ぐらいは成果が出なくても自由にやらせてくれていました.

福島 実は私と篠田先生は同じ大学の理学部物理学科出身で,会社に入ってから全然違うこの分野に入ったので,同じようなところがあります.そういう時代だったのかもしれませんね(笑).

内田 そうですね.今の時代はすぐ事業貢献しないといけないという雰囲気がありますが,そのころは,とても優秀な人たちが上にいて,私が成果を出さなくても成り立っていました.それでも,成果が出せないことをかなりコンプレックスに思っていて,逆に外から見える成果,特に国際学会にどんどん出そうという意識を強く持つようになりました.それで,TRECVID(映像解析・検索の国際的なコンペティション型ワークショップ)に参加したり,SRI(Stanford Research Institute)に研究員として滞在したりして,だんだん成果を出せるようになってきました.また,画像検索の研究成果をライブラリ化して,そのころちょうど流行っていたAR(Augmented Reality:拡張現実)サービスで実用化することができました.

ところが,年に2~3本ぐらい国際学会に通せるようになっていた2013年頃,事業部に異動になりました.大企業ではジェネラリストを育てるのに,異なる部署を経験させますよね.

福島 ありますね.ジョブローテーション.

内田 研究所はスペシャリスト集団だったので,それまで枠外だったのですが,研究所もやはりジョブローテーションが必要だよねという話になって,異動になりました.私の異動先はスマートフォンの企画開発部署で,仕事の内容は研究所と全然異なり,その上かなり忙しい部署で,端末の発売スケジュールに合わせた開発のスケジュールがとてもタイトでした.

実はちょうど同じタイミングで社会人博士課程に入学しており,かなり大変でしたが,3年間で博士を取ることができました.有休を取って授業に参加して単位を取ったり,参加必須の輪講に参加したり.研究所の籍も少しだけ確保してもらっていたので,そこで細々と研究を進めたり.子どもが生まれて4カ月間の育休を取ったのですが,その育休のおかげで論文が書けました(笑).

育休から復帰してから研究所に戻ったのですが,浦島太郎な状態から,ディープラーニングのキャッチアップをし始めました.

篠田 ディープラーニングが全盛になっていた時期ですね.

内田 はい.ただ,戻ってから結局,以前にいたときと同じようなことをやっているなと感じました.自分自身もっと成長したいという気持ちが昔からあって,なんとなく物足りなく感じたのです.

今のディープラーニングの時代は,arXivに速いスピードでたくさん論文が出て,GitHubに実装が上がりますよね.できるエンジニアがどんどんそういう新しい技術を試したり,使ったりしているのを感じていました.研究者よりもそういうエンジニアの方が最新技術を扱っているし,研究所にいてもそういうエンジニアリング能力がすごく大切だなと思うようになりました.自分は研究者だと思っていましたが,もう少しエンジニアリングの能力を鍛えたいと思うようになりました.ちょうどそのタイミングでDeNAから声をかけられて,現職に転職しました.元々,会長の南場さんの本を読んだことがあり,エンジニアを大切にする会社だという印象を持っていたため,エンジニアリングが学べるのではないかと思い入社しました.

福島 DeNAに実際に移ってみてどうでしたか.

内田 事業会社かつ立ち上げ中の組織だったので当然ですが,研究開発の進め方がそれまでと全然違います.それまで経験していたのは,研究所が研究開発をして,技術ができると事業部に持っていく,もしくは,事業部からニーズが出てきて,それに向けて研究計画を立て,研究成果を事業部に返すというものでした.でも,DeNAではプロジェクトありきです.こういうプロジェクトをやろうという企画段階から,もし技術が必要ならば我々研究開発部隊が入り,どういう技術的な貢献ができるかを検討します.その段階で,これにはそういう技術は要らないとか,使えないとなれば,そこで検討が終わることも多くあります.必要な技術によっては,あの大学の先生に相談したらよいのではないかというコンサルティングをすることもあります.自社で研究開発すべきという判断に至れば,そこで独自技術を開発します.

篠田 内田さんが入ったのはどのような部門になりますか.

内田 部署の話をしていませんでしたね.AIシステム部という部署です.元々の名前は分析推進部といって,事業部のデータアナリストが分析業務を行うための分析基盤の構築・運用をしていた部署です.2010年頃モバイルゲームが流行り始めた時代に,ゲームのプレイヤーのログが大量に貯まるようになって,リコメンデーションやプレイヤーの離脱防止など,ログ解析を中心に本格的な分析業務や機械学習に取り組むようになりました.そのための分析環境の提供や,分析結果を見るためのダッシュボードツールの開発などを行っていました.今はそれに加えて,深層学習を中心としたコンピュータビジョン技術,ゲームAIや強化学習,音声合成,データサイエンスまで,AI全般でDeNAのいろいろな事業ドメインに横断で貢献するための組織になっています.事業ドメインの中では,ゲームが一番の売上を上げていますが,会社としては,オートモーティブやヘルスケアなどほかの事業でも売上を上げられるように投資をしています.

私が入社当時から入っているプロジェクトもオートモーティブ事業のプロジェクトで,最初はAIから2人,事業部からはビジネス開発のメンバが1人と,AI側のメンバが多い状態だったので,ビジネス観点も含めて議論しながら,必要な要素技術の研究開発を2人で始めました.次第にプロジェクトの方向性が固まっていき,メンバが増えていきました.私は当初はコンピュータビジョンの人物解析をやっていたのですが,つい何でも足を突っ込んでしまうので,システム開発や全体のデータパイプライン設計,実際にそれにデータを流すプログラムの開発など,いろいろやるようになりました.さらに人が増えてきて,今度はプロジェクトマネジメントも必要になってくると,プロジェクトとして足りないところを拾う役割もするようになりました.最終的には本職のPM(Project Manager)が入るのですが,大変勉強になりました.

ディープラーニングのデータ準備コスト問題


福島俊一

福島 内田さんはそのように研究開発からビジネス開発まで広くかかわってきた中で,今回のデジタルプラクティスの特集テーマであるディープラーニングの視点からお聞きしたいのですが,ディープラーニングによってビジネス面がどう変わったか,感じるところはありますか.

内田 私は画像検索や物体認識といった分野をやってきましたが,ディープラーニングによって精度が上がって,タスクの幅がとても広がったと感じます.ちゃんとデータさえ集めてやれば実用的な精度は出るので,アプリケーションの作り方とか,サービスに制限をかけることでカバーできるようなタスクが多くなってきたのではないかと思っています.

福島 実はですね,今回ディープラーニングの特集にしましたが,少し前の2017年4月号では画像認識特集を組みました.そのとき,ディープラーニングの論文が集まると予想していたのですが,実際にはディープラーニングを使った論文が少なかったのです.それで,そのときに,論文の著者の方たちと,ディープラーニングをトピックとした座談会を行いました☆1.その座談会では,ディープラーニングはデータが大量にあれば精度が出るのだけれど,現場ではそこまで大量にデータを集めるのは難しくて,簡単には精度が出ないのだと.そういうディープラーニングの現場での難しさが話題になりました.

内田 なるほど.

福島 それからほぼ2年が経ったのですが,内田さんから見て,そのあたりの感覚はどうでしょうか.単純にデータが増えたり集まりやすくなってきたのか,データがそんなに集まらないという問題は同じだけれど,工夫によってうまく精度が出せるようになってきたのか,あるいは,DeNAさんが取り組んでいるアプリケーションはうまくデータが集められるようなものを狙ってきたのか.

内田 そういう意味では,今のお話は全部ありますね.アプリケーションがあったときに,Google, Amazon, Microsoftといった企業から,汎用のAPIが提供されていることがあります.サーバのAPIでなくても,すでに事前学習されたモデルがいろいろ用意されていて,それで事足りるケースも結構あると思います.

そうではない場合,言ってしまえば,ニッチなニーズに対して答えようとすると,そのデータ集めの問題が発生します.そのとき結局,道は2つで,やや極論かもしれませんが,そのデータを集めて割に合うのだったら集めればいいし,割に合わないのだったらやらない,ということになります.結局はビジネス観点の判断なのではないかと思います.たとえば,1億円かけても10億円の売上が期待できるのであれば,さっさとデータを実際に集めに行って,アノテーションをすればいいということになります.逆に売上見込みが数百万円というプロジェクトに,データを用意するために数百万円をかけることはできません.

もちろんお金があまりかけられないときに,工夫してデータを取る場合もあります.また,お金があってもデータを準備するコストが下げられるなら下げる努力をすべきです.CG (Computer Graphics) を使う方法とか,まず既存のモデルで認識をさせて,その結果を人が修正するなど.アノテーションする際も,アノテーションするデータに優先度を付けていくアクティブラーニングや,アノテーションを一部行うと補完してくれると方法とか,研究としてもいろいろ取り組まれている領域ですね.

篠田 私も大学にいて,いろいろな方からビジネスの相談があるのですが,やはり今と同じような話になります.そこで問題なのは,先ほど1億円かけても10億円儲かるからやるというときの,その10億円儲かるかどうかはまだ分からないわけですよ.そこでその判断するというのが,たぶん内田さんの大きな役割になっているのではないかと思っているのですが,そういう判断力はどうやって高めていけばいいのでしょうか.

内田 そこはすごく難しくて,正直私も自信を持って判断することは難しいと思っています.ただ,DeNAの場合は,ビジネスオーナーがいて,まずビジネス観点でプランを立てます.我々はそれにコントリビューションする立場です.我々の役割は,このビジネスにこういう技術が必要で,その技術を確立するためにはどういうことにどれくらいお金をかける必要があるかという見込みを出して,ビジネスオーナーから判断してもらうことです.技術からどれぐらいの未来が広がるかとか,技術からシーズベースで新しいプロダクトやサービスを描くことは,我々に当然求められることなのですが,なかなか難しいと感じています.今の我々はプロジェクトファースト的な取り組みが中心になっているので,本当はやっていきたいがあまりできていないという状況です.

ビジネスオーナーとの意思疎通


篠田浩一

篠田 関連した問題で,私の知る範囲では,ビジネスオーナーと言葉が通じないことがよくあるのですが,そのあたりの課題というか,スキルの問題はありませんか.

内田 ほとんどないですね.ビジネスオーナーをはじめ,ビジネス側の人たちは優秀な人が多いので,基本的に我々の言うことを信じてくれます.AIに対して過度な期待はなく,リーズナブルな見解を持っていて,前向きな議論をするのでとても楽です.

福島 顧客といっても,相手は同じDeNAの中のビジネス部門の人たちで,それなりに分かっているという状況というのはかなり恵まれているのかもしれませんね.業界内ではPoC(Proof of Conecpt:概念実証)で苦労しているという話をよく聞きます.これぐらいの精度でないといけないとか,これぐらい信頼性を確保しなければいけないとか,顧客のそういうある種の思い込みと,実際にできることとの間のギャップが大きいため,開発されたものに対して,そんなのでは駄目だ,もっとできるだろうといったやりとりが繰り返されて,たくさん工数がかかってしまうという話です.顧客の側が機械学習の特性を分かっていないと工数がどんどん膨れ上がってしまうということで,そのあたりの理解がある顧客かどうかで,工数見積もりが大きく変わってくるという.そのために最初の顧客との意思疎通をどのようにして,どこまでしっかりやるかとか,分かってもらうというところで苦労しているという話を聞きます.

内田 確かに我々は恵まれていますね.それに関連して思うことがあります.顧客は,技術観点でできる/できないを判断することが多いと思うのですが,そのもっと手前で,本当にビジネスになるのか,という検討が抜けていることが結構あります.たとえば,AIに間違いが許されず,必ず人のチェックがいるのだったら,今の状況とほとんど変わらないよねとなってしまったりとか.新しい機能が入ったときに,いままでのワークフローにちゃんとはまるのか,作業が自動化したとして,いま動いている業務ツールと問題なくつながるのかとか.技術開発自体もやはり難しいのですが,ビジネスや現場の人にとって本当に意味があることなのか,それこそが一番重要なポイントだと思います.

篠田 本当はAIを使わなくても済んでしまうこともありますよね.よく聞く話として,とにかくAIを使ってくれみたいなプロジェクトがあったりする(笑).

内田 そうですね.開発サイドは通常,仕事を受けたい立場なので,開発して本当に顧客のビジネスに貢献するのかに疑問を持たないこともあるかと思いますが,我々はプロジェクトを行うこと自体が目的ではないので,そもそもやって意味があるのかという話を結構します.

福島 AIを使わないで済むのであれば,AIを使わない方が,ブラックボックスにならずに分かりやすいですし.ブラックボックスだと,動作保証の心配も出てきますからね.

内田 一般論としてですが,AIを入れる前にもっとやれることがある,逆にそうしないとAIの導入は難しいという状況が多いと思います.たとえば,ちゃんとデータが管理されるようなシステムを作ることがまず重要です.そもそも現状の業務フローや業務システム自体を見直すことの方が重要なこともあります.

AI応用システム開発の考え方,ソフトウェア工学

福島 ブラックボックス問題からつながりますが,AIや機械学習の応用システムの安全性・信頼性をどう確保するかが,重要課題として指摘されるようになりました.そのあたりの対策や取り組み状況はいかがですか.

内田 説明性というのはよく言われる問題ですが,私が主に取り組んでいるコンピュータビジョン分野では,精度が出ればよいですというものが多くて,あまり困ったことがないかもしれません.データサイエンス分野だとまた違うと思います.

福島 アプリケーションのタイプによって要求が異なると思いますが,どんなタイプのアプリケーションですか.最近は品質クリティカルなアプリケーションにもAI・機械学習が広がってきていると思うのですが.

内田 両方ありますね.たとえば,リコメンデーションなど精度が低くても機能を足すと喜ばれるようなアプリケーションでは,エラーがあっても多少許されるかと思います.しかし,自動運転のような人命にかかわるアプリケーションでは当然許されません.私はドライバの運転行動を認識して,危険行動を正すことで交通事故の低減を実現するという研究開発をしているのですが,これには説明性が必要になります.説明性というよりは納得性というほうが近いですね.

一方,今回の特集号の招待論文で取り上げてもらったゲームAIは,自動運転とはだいぶ違いますね.自動運転に比べて許容範囲は広いと思います.

エラーが起きることに対して,私は最後は人が作業を担保してもいいんじゃないか,つまり,処理フローの中に人間を置いてもいいじゃないかと思っています.ヒューマンインザループという考え方ですね.その場合,人間を入れたフローでも,従来100%人手だったのが,5%の労力で済むようになる設計にできるかがポイントです.Precision 90%,Recall 90%みたいな中途半端なシステムよりは,Precision 100%でRecall 50%とか,Precision 50%でRecall 100%という方が圧倒的に使えます.Recall 100%だったら,出てきたもの全部を人がチェックすればよくて,それが全体のうちの1割程度になるならば,人手を大幅に減らせます.Precision 100%だったらそれらはもう手がかかりません.90%と90%だとどっちつかずで,取りこぼしはあるし,出てきたものにも人手のチェックが必要になります.

篠田 90%・90%のケースだと,人間が元々やっていて,それはどうしても取りこぼしがあって,安心のためにもう1つ機械を動かすという,ダブルチェックの意味合い程度という気がしますね.

内田 その観点は非常に面白いですね.人のチェックの精度も100%ではないとすると,人手と同じ精度まで達成できればよいということになります.

福島 人と機械でダブルチェックをやるというケースについて,ちょっと面白い話があります.機械翻訳がニューラル翻訳になって精度が上がったのですが,間違え方が人間に似てきたので,間違いを見つけにくくなったという話.昔は機械の間違いが人間とだいぶ異なったので見つけやすかったと.人間の間違う傾向と,機械の間違う傾向が違う方がダブルチェックには有効みたいな.

内田 ニューラル翻訳は,一見もっともらしい結果を出してくるけれど,実は間違いがあるというと確かに難しいですね.

福島 それから,内田さんの話にもあったと思いますが,この分野は,研究とビジネスやソフトウェア開発が分離できないような世界だと感じています.研究として理論面にもきちんと取り組むことと,その理論が大規模データのハンドリングも含めてソフトウェアとして実装できることと,ビジネスの実例・実データでちゃんと顧客価値が出せるということの3つがそろわないと回っていかないと思います.研究室にこもってインクリメンタルな改良についはまってしまうときに,現実の世界の問題を見るからこそ新しいチャレンジングな研究課題が見えてくるみたいなのも出てきていると思います.そういった研究開発スタイルの面で感じていることはありますか.

内田 ディープラーニングの前から,研究発表を聞いたときに,どっちつかずの研究が多いと感じることがありました.何か特定のアプリケーションを前提としない汎用技術についての研究と,実際のユースケースに対して,そのユースケースならではの工夫を入れた研究と,どちらかに振るべきだと思うのですが,どっちつかずのものが多いと思っています.XXのためのYY技術といいつつ,XXのための工夫ではなく,YYという技術のマイナーアップデートだった,みたいな.近年はベースとなる技術でもどんどん進化して良いものが出てきて,新しいモデルが出ると大きなインパクトがあります.個人的にはリーズナブルな精度が出るシンプルなモデルが一番好きです.シンプルなモデルであれば,実応用のときに問題設定に適した改良がしやすいですし,うまくいかないときの切り分けも複雑なモデルと比較すると当然容易になります.

それと,やはりデータが命と感じる点も多いです.とりあえずモデルはデファクトのシンプルなものを使えば事足りるケースが多いですが,そのときのデータの設計は重要です.たとえば,今まではこういうラベルを付けていたけれど,今度のユースケースで,こういうニーズが出たので,新しく別のラベルを付けることになったとか.1個のラベルだったけれども,これは2パターンに分ける必要が生じたとか.そういう状況があったときに,こちらのデータ群はラベルが2種類付いているけれど,こちらのはラベルが1種類だといったことが発生します.それをどう学習するかというのは,実応用でよく起きる問題です.ラベルを付け直すというのも1つの解ですし,ラベルのつけ方の異なるものをうまく扱う手法とか,ラベルのあるデータとないデータを上手く一緒に学習できる工夫をしたりするのも取り得る対策として考えられます.

人材やヒューマンリソースマネジメント

篠田 こういった分野の人材の面についても話を聞かせてください.DeNAさんは伸び盛りの会社だと思うのですけれども,プロジェクトがうまくいけばいくほど人が増えていって,たぶん人の動きが結構激しい,プロジェクトベースのビジネスへの取り組みもあれば,国際会議でも発表する,そういったところで,ヒューマンリソースマネジメントのやり方もいろいろ工夫をされているのではありませんか.

内田 やはりプロジェクトが一気に大きくなっていくととても大変で,たとえば属人化が進んでしまったり,チーム間で適切に情報共有がなされなくて問題が発生したりします.小さいプロジェクトだと,属人化したほうが圧倒的に効率が良いのですが,規模が大きくなってくると,それではだんだん回らなくなり,見える化を意識したり,無駄な会議体をなくしたり運用を変えたりしなければなりません.プロジェクトマネジメントも,最初は自分でやっていましたが,プロに任せるようになりました.プロジェクトマネジメントの方法論やツールはさまざまありますが,その方の進め方を見る限り,万能のアプローチはなく,各プロジェクトに応じて方法論やツールを適切に選択・修正して適用することが大切なのだと感じています.

体制としては,私の所属するAIシステム部には研究開発グループ,Kagglerがたくさんいるデータサイエンスグループがあり,あとソフトウェア工学やML Opsを担当しているMLエンジニアリンググループがあります.研究開発はほとんどクラウドでやっていて,AWS(Amazon Web Services)か,GCP(Google Cloud Platform)を使っています.これらのインフラの構築やセキュリティの担保,案件に応じたマネージドサービスを用いた全体アーキテクチャの設計は,MLエンジニアリンググループのプロが全部見てくれます.これら,専門が異なるエンジニアがそれぞれの強みを活かすことで,少ない人数で最大のパフォーマンスが出せるような体制を重視しています.  

篠田 どんどん規模を拡大していると,人材を集めるのも大変ですよね.

内田 DeNAは,新卒採用にとても力をいれていて,本当に優秀な新卒が入ってきてくれています.1カ月強の夏季インターンを設計したり,冬には5日間で集中的にお題に取り組んでもらう選考プログラムを用意しています.それ以外でもアルバイトで優秀な学生さんはいないか常に意識しています.もちろん,シニアな人材も必要なので,外から優秀な人に来てもらおうと中途採用もかなり頑張っています.

採用活動の前に,そもそもDeNAという会社に興味を持ってもらうため,プレゼンス向上の活動もしています.私自身も技術記事を書いたり,新しいものを試してみたりなど,宣伝のような役割が元から好きでしたし,会社としてもOSS(Open Source Software)の発信などをやっています.論文を読みましたとか,何か新しいものを実装しましたといった情報の発信も推奨しています.オープンな勉強会や,論文読み会のようなイベントも主催しています.実際に,そういう活動を見て,DeNAに興味を持ってくださる方もいらっしゃるので,結構実を結んでいるのではないかと思います.

ディープラーニングの高速化

篠田 話が変わりますが,ディープラーニングは学習にとても時間がかかるのが問題になっていて,ハードウェア性能がきいてきます.DeNAさんでは,ディープラーニングとハードウェア性能という面はどう考えていますか.そういう観点で何か研究開発をされていますか.

内田 学習も推論も処理時間が増加すれば,お金がかかかるので,とても重要な問題です.我々はハードウェア屋さんではないので,自分たちで専用AIチップを作るといったことはできません.もうすでに確立された汎用的なハードウェア,汎用的なソフトウェアで一番コスパがいいものを選んで使うというスタイルです.

たとえば,AWSとGCPどちらがこのプロジェクトだと使いやすいとか,最近はGPU(Graphics Processing Unit)だけではなくTPU(Tensor Processing Unit)もあったり,モデルやフレームワークによっても最適な選択肢が変わることもあります.実はCPUで推論するほうが安いなど,インパクトが大きいケースではいろいろ試して評価します.実務的な話でいうと,いつ落ちるか分からないようなインスタンスを使うという手もあるのですが,落ちてもちゃんと復帰できるようなシステムにしてコストを抑えるといったこともしています.AWSだとスポットインスタンスがありますし,GCPだとプリエンプティブルがあって,2分の1,3分の1の価格で使えるものがあるので,そういう方法をうまく使って仕組みを作っています.でも一番活用しているのはKagglerかもしれません(笑)

篠田 モデルや方式の面での工夫もありますか.

内田 はい.学習データを全部学習させるのだと時間がかかるので,いわゆるHard Examplesでやったら短縮できないかみたいなことは考えています.いまはまだできていないのですが.

モデル自体を軽量化することにも取り組んでいます.モデルを軽量化すれば,学習も早くなるし,推論も早くなるので,それは当然やります.今年の6月に開催される画像センシングシンポジウム(SSII 2019)で,ディープラーニングの高速化というオーガナイズドセッションを,Ideinの中村晃一さんを中心に企画しています.ディープラーニングの高速化について,高速チップ,分散学習,軽量モデル等を取り上げますが,私はモデルの部分の話をする予定です.AIチップがいろいろ出てきていますし,SONY,Google,Preferred Networks等の企業が分散学習の高速化で競っていて,非常に興味があります.我々は先ほど言ったように,やはり汎用ソフトウェア・ハードウェアの上に乗っかるスタイルですから,フレームワークに依存しないモデルの軽量化を中心にやっています.そういう軽量化をした上で,最後にハードウェアのターゲットが決まっている場合には最後に最適化を行います.

今後の課題・方向性

篠田 今後の課題や方向性についてはいかがですか.

内田 いまの取り組みで,我々はまだチャレンジ段階でビジネスに大きく貢献しているとは言えないと思っています.そのため大小問わず実績を積み上げていきたいと思っています.

技術自体については,AIの民主化と言われるように,どんどんコモディディ化してきているので,我々の部署がなくても,現場のエンジニアが自然にAI技術を業務で活用できる状態になればいいなと思います.

難しい基礎研究は優秀な人が少しいればいいと思っていて,そうではない私からすると,研究成果の技術をいかにビジネスに適用していくかという,エンジニアリングやビジネス感性に注視していくのかなと思っています.

福島 自動機械学習,機械学習のパラメータを自動決定してくれるautoMLみたいなのが使えるようになってきていると思いますが,そういうのがどんどん入っていく方向ですか.それとも,そんな簡単にはいかないよと思いますか.

内田 そうですね,流れはそっちだと思いますが,今苦労しているのはそこではないという感覚もあります.autoMLなど当然あると嬉しいのですが,実は苦労しているのは,そこよりもデータの部分だったりします(笑).

たとえば,私はKaggleをやっていますが,Kaggleにあげられるような問題に落とし込む,つまりデータと精度指標を定義することができれば,問題の9割は解けたも同然だと思います.どう問題を設定するか,何の精度を見ればいいのか,そのときのデータはこれだと定めるところまでが非常に難しいのです.それは当然,ビジネス観点でこの精度がKPI(Key Performance Indicator:重要業績評価指標)として正しいという判断をしないといけないですし,そもそもそのデータがちゃんと集まらないとできません.しかし精度指標が決まり,データが集まれば,それを解くことの難易度は高くありません.

そのKPIを決めるのは非常に難しいことです.物体検出や画像認識系では,認識精度をmAP(mean Average Precision)で出しますが,それとビジネス観点の精度・KPIは必ずしも同じではありません.同じmAPでもビジネス観点で使えたり,使えなかったりします.たとえば事故はレアケースで起きますよね.mAPは全体の平均,一番多いケースで評価が決まってきます.でも重要なのは事故が起きるレアケースで,そのレアケースでミスがあると大変です.そのために,テストデータとしてどういうものを考えればよいか,テストデータとその精度をどう設定するか,そこを決めるのが難しいのです.

福島 篠田先生もこの分野の先端にいると思うので,今後の方向性や課題について,ご意見がありますか.

篠田 先ほど話に出ましたが,100%を保証しなければならないというのはとても辛いわけで,人間でも間違うのだから,その人間より間違いがたとえば10分の1ぐらいになったらみんな使ってくれるというのがいいですね.何か変な厳しい法律とかができてしまって,そういった社会制度に縛られてしまう世の中ではなく.

内田 そうですね.人が事故を起こしてもニュースにならないけれど,自動運転車が事故を起こすとニュースになるので,自動運転は絶対に事故をしてはならないというバイアスがあるのかもしれません.人間よりも事故率が低いのだったらよいという考え方もあります.今後は事故が起きたときの責任の所在や,保険の基準設定,法整備が必要ですね.

篠田 そういうときに,人間の研究というのも大事になりますね.つまり,どういうときに納得するのかとか,どういうことは理解してくれるのかとか.そういう観点から,ディープラーニングはだんだん機械と人間の真ん中ぐらいの位置にきているような気がしています.まったく理解不能なのだけれども正確で,なんか人間に近いような答えを出してくれるという.

福島 ディープラーニングは人間の暗黙知を学習しているという面がありますから,確かに近づいているという感じはありますね.

内田 人間はどうやったら納得するかって,理屈ではない部分がありますよね.正論を言えば人が納得するわけではありません.ただ,そういう中で,ちゃんと根拠として定量的に示すというのは非常に重要だと思いますね.その場合にはしっかりとした統計の知識が重要だと思います.やはり精度はそのときのデータに依存しますし,学習のときの人間が付けたラベルも完璧でない可能性があるので,その信頼度についても理解して話さないといけません.

福島 なるほど.ディープラーニングの精度が向上する一方で,ディープラーニングを含むAIの出す結果を,人間や社会がどう受け止めるかという面にも,いろいろなファクターがかかわってきますね.AIが社会に与えるインパクトが大きくなっているのは間違いなく,研究者・技術者はそういったあたりも考えていく必要がありますね.

篠田・福島 本日はどうもありがとうございました.

左から:内田祐介氏,福島俊一,篠田浩一

脚注
  • ☆1 「デジタルプラクティス」第8巻第2号(2017年4月号)では「社会に浸透する画像認識」を特集した.その中で「画像認識応用におけるディープラーニングのインパクト」と題した座談会を実施した.
    座談会記事へのリンクはhttps://www.ipsj.or.jp/dp/contents/publication/30/DP30-IV.html