« 機械翻訳の困難さ | トップページ | ピアノの『響き』を作り出しているもの »

2016年7月24日 (日)

ディープラーニングの衝撃

(全体の目次はこちら


ディープラーニングの衝撃

- もう研究者としてやっていけない -

 

前回、機械翻訳を例に、
人工知能研究の難しさを、

松尾豊著
「人工知能は人間を超えるか
 ディープラーニングの先にあるもの」
角川EPUB選書

から紹介し、最後にこう書いた。

ネコの写真を見たとき、
写っているのはネコだ、と理解するためには
「ネコというのはこういうものだ」を
知識として持っている必要がある。

だから、
「知識をどう与えるか」に
「知識をどう記述するか」に、
多くの人が悩み、取り組んでいた。

この場合の知識とは、
「ネコの特徴をどう捉えているか」
ということになる。

「耳が三角で、ヒゲがあって、・・・」
などなど、「人間の」知識として存在する
ネコの特徴というのは確かにある。

この特徴量を、人間が与えるのではなく、
機械学習の中で
自動的に取得しよう、というのが、
今の人口知能を語る上での
ホットなキーワード
「ディープラーニング」だ。

それがどんなものなのか、
の詳しい説明は本に譲るが、
この本では、
「ディープラーニング」が
人工知能の世界に
実績を伴って登場したときの衝撃が、
印象深く語られている。

どんな登場の仕方だったのか。
今日は、その部分を紹介したい。
(以降、水色部は本からの引用)

 

【人工知能研究における衝撃】

2012年、
人工知能研究の世界に衝撃が走った


世界的な画像認識のコンペティション
「ILSVRC(ImageNet Large Scale
 Visual Recognition Competition)」で、
東京大学、オックスフォード大学、
独イエーナ大学、ゼロックスなど
名だたる研究機関が開発した人工知能を抑えて、
初参加のカナダのトロント大学が開発した
SuperVisionが圧倒的な勝利
を飾ったのだ。

ILSVRCというコンペでは、
いったいどういうことを競うのだろう?

 

【競うのは正解率】

 このコンペでは、
ある画像に写っているのがヨットなのか、
花なのか、動物なのか、ネコなのかを
コンピュータが自動で当てるタスクが課され、
その正解率の高さ(実際はエラー率の低さ)を
競い合う


1000万枚の画像データから機械学習で学習し、
15万枚の画像を使ってテストをして、
正解率を測定する。

画像を見て写っているものを当てる。
見るのは15万枚の画像!
テストの概要は簡単なものだ。

 

【コンマ%にしのぎを削る】

それまで、
画像認識というタスクで
機械学習を用いることは常識であったが、
機械学習の際に用いる特徴量の設計は、
人間の仕事であった


各大学・研究機関はコンマ何%の精度で
エラー率を下げるためにしのぎを削り

そのために、画像の中のこういう特徴に
注目するとエラー率が下がるのではないかと
試行錯誤を重ねてきた。

「ヨット」の特徴とは何か?
何を見て「ヨット」と判断しているのか?
特徴量の設計とは、まさにこの点を記述し
システムに教えることだ。

 

【26%台での攻防になるか?】

 機械学習といっても、特徴量の設計は
長年の知識と経験がものをいう職人技である。

職人技により、機械学習のアルゴリズムと
特徴量の設計が少しずつ進み、
1年かけて
ようやく1%エラー率が下がる
という世界だ。

その年もエラー率26%台の攻防のはずだった。

そして、いよいよコンペ。
2012年の結果は以下の通り。
本には数値による一覧表しかなかったので、
その数字を元にグラフ化してみた。

予想された26%台の攻防とは、
青枠の部分。
 26.172%
 26.602%
 26.646%
 26.952%
まさに1%以下の戦いになっている。

そこに登場した赤枠!
トロント大学のSuperVision!

Deepl1

【桁違いの勝利】

その世界で少しずつ性能を上げていくには、
気の遠くなるような努力が要求される。

 ところが、
2012年に初参加してきたトロント大学は、
ほかの人工知能を10ポイント以上引き離して、
いきなりエラー率15%台をたたき出した。

文字通り「桁違い」の勝利だ。
これには長年、
画像認識の研究を進めてきたほかの研究者も
度肝を抜かれた

26秒台で競っていた競技に、
いきなり15秒台の選手が登場したようなものだ。
そりゃぁ「度肝を抜かれた」ことだろう。

 

【ディープラーニング勝因と桁違いの勝利】

 何がトロント大学に勝利をもたらしたのか。
その勝因は
同大学教授ジェフリー・ヒントン氏が
中心になって開発した
新しい機械学習の方法
「ディープラーニング(深層学習)」だった。

ディープラーニングの研究自体は
2006年ごろから始まっているが、
それまで画像認識の各研究者が培ってきた
ノウハウとはまったく別のところから参入して、
いきなりトップに躍り出たのだから、
その衝撃たるや、大変なものだった。

画像認識の研究者の中には、
「もう研究者として
 やっていけないのではないか」
と危機感を覚えた人も少なくないと聞いている

26秒台で苦労していた選手が、
15秒台の選手と会ってしまえば、
「もうやっていけないのではないか」と
思う衝撃は理解できる。

「人間の」知識を与えるのではなく、
コンピュータが学習を通して
「自ら」知識を獲得する。

その手法の一つとして登場した
「ディープラーニング」

画期的ではあるが、
これが完璧な解というわけでは
もちろんない。

松尾さんは、こんな言葉で
その価値を表現している。

 

【大きな壁に穴を穿った】

 とはいえ、ディープラーニングによって
人工知能が実現するというのは短絡的すぎるし、
いまのディープラーニングは
足りないところだらけだ


しかし、ディープラーニングが
「単なる一手法」だと考えるのは、
これまた技術の可能性を見誤っている。

ディープラーニングは、
人工知能の分野でこれまで解けなかった
「特徴表現をコンピュータ自らが獲得する」
という問題にひとつの解を提示した。

つまり、大きな壁に
ひとつの穴を穿った
ということである。

これがアリの一穴となり、
ここから連鎖的にブレークスルーが
起こっていくかどうかが、
今後注目すべき点である。

 

 

(全体の目次はこちら

 

 

 

 

« 機械翻訳の困難さ | トップページ | ピアノの『響き』を作り出しているもの »

書籍・雑誌」カテゴリの記事

科学」カテゴリの記事

コメント

今日は。先月詠んだ歌を連想しました。
「父の日や孫の描きし爺(ジジ)の顔耳を四角に目を三角に」
幼児はディープラーニングに及びませんねhappy01sweat01

平戸さん、

コメントをありがとうございます。

幼児の、常識に一切とらわれない自由な発想が、
大きくなるに連れ、だんだん型にはまっていく感じは、
なんともさみしいものです。

あの自由な発想が、「おもしろい」で終わらずに
創造につなげられたら、とよく思います。

コメントを書く

(ウェブ上には掲載しません)

トラックバック

この記事のトラックバックURL:
http://app.f.cocolog-nifty.com/t/trackback/1756499/66003983

この記事へのトラックバック一覧です: ディープラーニングの衝撃:

« 機械翻訳の困難さ | トップページ | ピアノの『響き』を作り出しているもの »

2017年3月
      1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31  
無料ブログはココログ