読者です 読者をやめる 読者になる 読者になる

Google DeepMindの衝撃、コンピューターが人間に勝利する価値。

2016年1月28日、囲碁界だけでなくコンピュータープログラム業界や神経科学界にも衝撃が走った日だと思います。
これまでコンピューターが人間に勝つのは困難とされていた最後の砦でである囲碁で、欧州のプロがGoogle DeepMind社開発のプログラムAlphaGoにハンディキャップなしで5戦全敗したからです。
棋譜を5局ともみましたが、私個人はコンピューターにぶっちぎられてしまった感満載です。
もう絶対かなわない(笑)

 

下記記事

ついにコンピューターが囲碁でプロ棋士に勝利、倒したのはGoogle人工知能技術
http://gigazine.net/news/20160128-computer-win-human-at-igo/

Google DeepMind AlphaGo
http://deepmind.com/alpha-go.html

グーグルが最新人工知能使い囲碁ソフト開発 プロに勝利
http://www3.nhk.or.jp/news/html/20160128/k10010388481000.html

AlphaGo: マシンラーニングで囲碁
http://googlejapan.blogspot.jp/2016/01/alphago.html


■プログラムが人間に囲碁で勝つこと自体は意味はない、されどその勝利の意味はとてつもない。

いきなり矛盾した表題になってしまいましたが、今の心境はこんな感じです。
正直、プロ棋士人工知能に負けたところで、本当の意味で誰かが困るわけじゃないでしょう。(何かしらで競合している人は別として)
囲碁知らない人からは、「へえ、そうなんだ」くらいのもんでしょうし、囲碁に自信があるひとは心情的になんかやるせないぐらいのもの。
走りのスピードで、人間がF1マシンに負けても、当然というものと一緒だと思います。

一方でこのプログラムがプロレベルの人間に囲碁で勝つということの偉業についてなんかいまいち理解されない感じがもやもやして、ちょっとブログを書きたくなりました。
特に下記2点について考えていきたいと思います。

囲碁というゲームのプログラムにおける困難さ
②強化学習(Reinforcementlearning)というブレイクスルーがもたらす汎用性と価値


囲碁の意思決定の思考プロセスとは?

囲碁の意思決定プロセスを図にするとこのようなものと私は考えています。
※昔囲碁の思考プロセスについてビジネススクールで質問をいただき作成した図です。

f:id:Umeyan:20160129050803j:plain

この図でいうところの「読み」にあたる部分が、コンピューターが人間に対して優位なところで、ツリー検索による演算処理能力が必要なところです。
一方、直観と大局観については、感覚要素が大きく、コンピューターには真似できないと考えられていました。


■これまで囲碁を難攻不落にしていた難所とは?

・演算処理するには場合の数が多すぎること
あまりにも場合の数が多すぎて全ての手に対して、演算処理をするわけにはいきません。
人間は経験による「感覚」によって、不要な着手を考えないようにしていますが、感覚のないコンピューターはそうはいきません。
※チェスなどは、その点場合の数が囲碁に比べて少ないので、スーパーコンピューターによる強引な検索が可能でした。

・局面の評価が難しい。(評価関数をどう設定するか困難)
そもそも途中でどちらが良いのか、これまでは感覚処理を行っており、評価関数と設定するのが困難でした。

囲碁の歴史は、一説には4000年とも言われ、中国最古の歴史書にも登場しています。
囲碁のプロ棋士は、膨大な経験によって身に着けた常人からは考えられないような「感覚」と「ヨミ」で、囲碁において精度の高い着手を打っています。
コンピューターの処理能力があがってきたことで、ある程度強引に演算処理で検索(モンテカルロ・シュミレーション)して、近年は強くなっていましたが、プロには到底及ぶレベルではありませんでした。

 

Google DeepMindがもたらしたブレイクスルーの意味とは?

今回、Google DeepMindは強化学習というブレイクスルーによってプロを破るプログラムを作成しました。
といっても強化学習という考え方自体は、ずいぶん昔からあったみたいですけど。(人間の脳もドーパミンを介した強化学習を行う神経回路という話みたいですし)

今までのプログラムは、演算処理の能力の高さに頼っただけとすると、今回のプログラムは従来のモンテカルロ木検索はそのままに、policy networkとvalue networkという二つの手法で次の手を予測して、さらに自己対戦を繰り返してもっとも勝率の高い手を学んでいくスタイルみたいです。
早い話人間みたいに、経験から学んでいくことで、感覚に近い評価をできるようにしていると思えます。

囲碁自体は単なるゲームにすぎませんが、非常に難易度の高いハードルが存在している中、deeplearningが機能することを証明したことには、意味があると思います。


■強化学習がもたらす価値

Google(正確には買収したDeepMind社)の開発したAIの強化学習が示す価値というのを言葉になおすと下記のようになるのかなと思いました。

「経験がものをいう領域において、十分なデジタル情報の蓄積がある場合は、強化学習のAIによる代替が可能となる」

十分なデジタル情報の蓄積がある場合は、と置いたのは、今回に関する昨日発表されたNatureの論文をちらっと見たときに、KGS GOサーバーからの対局の蓄積された情報による寄与が大きいとわかったからです。
※昨日発表のNatureの論文は、これからちゃんと読もうと思いますが、英文であることとかなり専門的な内容であることから、是非プログラミングの専門家の発表を待ちたいところです。

気候予測も疾病分析も一応は上記定義にあてはまるのかなというような気はします。

他にも使い道ありそうですけど


facebookとの比較

facebookの研究が今どうなっているのか、まだ具体的にはわかりませんが、27日にマーク・ザッカーバーグ(facebookCEO)が自らのfacebookに上げた囲碁ソフトの棋譜をみる限りでは、かなり弱い印象でした。
現在視覚からのパターン認識から可能性を探っているという話なので、応用する着地点が違うのかもしれません。
※顔認識の精度を高めるなど、視覚パターンが応用される分野など

(参考)Google and Facebook Race to Solve the Ancient Game of Go With AI
http://www.wired.com/2015/12/google-and-facebook-race-to-solve-the-ancient-game-of-go/
ついに人工知能囲碁で人間に勝つ? フェイスブックが開発中
http://www.gizmodo.jp/2015/11/aifacebookgo.html


■100万ドルの対局が楽しみ

Googleは近年で最も実績を残した世界最強の棋士の一人、イ・セドル九段と3月に対局を組んでいるとのこと。
賞金はなんと100万ドル。
http://nitro15.ldblog.jp/archives/46676784.html

イセドル自体、人間離れした超人みたいな碁を打つので、どっちが勝つか全くわからないのですが、本当に楽しみです。
歴史上でもイ・セドル程強い棋士はそうそうはいないと思いますし、人間の能力の限界点近くまで来てる人だと思ってますから。
人類史に新たな1ページが刻まれるのか、結果が楽しみです。