d0iの連絡帳

気がむいたら書く

人工知能と黒魔術

AI、あるいは人工知能ということばには、まるで魔法のようでどこかしら夢がありますよね。最近気がついたのですが、もしかしたらその「夢を見せる力」が、人の認知能力を鈍化させていて、人工知能に関する議論が迷走するのではないかと、最近思っています。あるいは、平均程度に知的(雑な表現)であれば、誰でも人工知能について語れると思うのでしょうか。関係あるかないかはわかりませんが、教育問題について教育の専門家でもない人が口をはさみたがる問題と似ている気がします。大人であれば教育された経験はあるし、大人であれば平均程度には知的である。だが、教育の本質について語るには平均的な経験ではまったく専門性が不十分ですし、人工知能の本質について語るには、平均的な知的レベルでは不十分なのではないかと、思っています。

例えばこんなニュースがありました。

http://www3.nhk.or.jp/news/html/20170620/k10011023981000.html

そして、国の研究機関を中心に開発を進めている日本語の音声対話システムを民間企業に公開し、対話の内容などのデータをできるだけ多く集めて、システムを高度化する仕組みが必要だと提言しています。

また、現在の音声対話システムは、商品の注文など事前に答えを用意できる内容にとどまっていることを指摘したうえで、どんな質問にも回答でき、利用者に追加の提案ができる世界最先端のシステムを開発すべきだとしています。

これは、音声対話システムが海のむこうで大流行しているので、日本でも独自のものを作ろうという話でしょうか。どうも総務省の情報通信審議会技術戦略委員会、あるいは次世代人工知能社会実装WG*1じゃないかという話なのですが、役所のタテマエでこういう話になってしまうのか、本気でこういうことを考えているのかはよくわかりません。目標として持つこと自体は大切だと思うのですが、せめて政府の委員会にはある程度戦略を持っていただきたいなと思うのです。先日の総務省AIネットワーク社会推進会議にしてもそうなのですが、話を聞いても戦略が見えないのですよね。全ての不都合を「AI」という言葉の特異点の中にとじこめて理解を進めないことを良しとする、失礼ながらそんな雰囲気を感じてしまいます。そんな中「行政リテラシー」と言われても、ねぇ。

すみません、少し話がそれました。

ところで、先日土井も微力ながらお手伝いしていたポナンザの山本一成さんが興味深いことをおっしゃってました。

「人工知能と黒魔術」(視点・論点) | 視点・論点 | 解説アーカイブス | NHK 解説委員室

私たちが普段の教育で触れる科学は、
基本的に還元主義という考え方でできています。還元主義は「物事を分解し、細部の構造を理解していけば、全体を理解できる」という考え方です。
科学者でなくても、この考え方に賛同する方は多いと思います。
たとえばあなたが時計というものを完全に理解しなければならないとしたら、まずすべての部品を分解して、歯車やゼンマイのしくみを知り、それぞれの動作を把握するはずです。
そして今度はそれらの部品を再度組み立てます。そうした作業をへて、時計という機構は理解できるようになるのです。熟練の時計職人であれば、時計がどのようなしくみで動き、どうすれば性能を上げることができるのかを明確に説明することもできるでしょう。
しかし知能を理解するには、この還元主義的な考えではうまくいきません。

(中略)

別分野の科学者にそうした状況を解説したところ、「人工知能は科学ではない」と言われたことがあります。もちろん、その人は人工知能のことを批判する意味で言ったわけではありません。要素を切り分けて個別に理解していくという、還元主義という伝統的な科学の思想とは相容れないことを指摘したのです。結局、知能というのは隠された方程式があって、それを解き明かすのではなく、どこまで行ってもモヤモヤしたよくわからないものであることを受け入れるしかない。それが今の人工知能の研究者たち・エンジニア達の実感なのです。

まったくもっとてさすが山本さん、という話なのです。実は現時点では「人工知能」あるいはそれを構成する各種機械学習技術は、高度化すればするほど、「なぜこのように動くのか?」が「仮説」の域を出ないようです。特に深層学習についてはパラメータ数が数百万以上にも及ぶ*2ものもあるので、これを解析的に説明するなどということは人間の能力の範囲外でしょう。定性的な分析についてはLinの仮説*3などがもっともらしい仮説として知られています。

こういった「技術」を前にして、「黒魔術」的なイメージを持つのはまったくもっって正しくて、土井も(PFNの)松元さんが構築するニューラルネットワークの見事さには魔法でも見るかのような気分になってしまいます。説明聞いてもなぜそうなのかよくわからないですし、直観的な部分もおおいように思います。

いきなり話が飛びますが、深層学習、あるいは人工知能がどのように働くかを理解することは、限定的、あるいは一般的な意味での「ものごとの理解」に対する研究に対応すると考えています。研究の対象が実体がなく、「理解するということ」そのものなので、科学としてメタな部分が出てしまい「黒魔術」になってしまう。そして「ものごとの理解」を理解するための認知プロセスは、我々が一般に生活している時に要求される認知プロセスととてもよく似ているため、一見誰でも議論できるような気がしてしまう。その結果、議論の本質に近づけば近づくほど一般人の議論が本質からずれてしまい、その矛盾が「AI」ということばに凝縮されているのが今の議論なんじゃないかなぁ、とか。

うーん、なんかうまくことばになりませんね。困った。

社会全般として、ここから先に進むために2つの考え方があるのではないかと思っています。

1つは、きちんとメタ認知を鍛えて、「ものごとの理解」に対する議論ができるだけの基礎体力作りを行うこと。もう1つはもっと単純に「使えればいいでしょ」と割り切って黒魔術だと思って使うこと。どちらのアプローチも排他的ではありませんが、社会としてかけるべきコストの方向性が変わるんじゃないかなと思います。1つめは単純に教育のコストが高いですし、2つめのアプローチは「認証」あるいは「検証」が重要になります。「黒魔術」(より正しくは「錬金術」)の一部が検証にたえて「化学」になったように、「深層学習」「人工知能」も検証のプロセスを経由して新しい「学習に関するメタサイエンス」を生み出すのではないか、という論もあるようです。

いずれにせよ、「AI」という魔法の言葉に困難を全て押し込めて議論した気になって、そんな議論をもとに政策を進めようとするのは、勘弁して頂きたいものです。

*1:総務省|情報通信審議会|次世代人工知能社会実装WG

*2:Resnet-152で6千万パラメータぐらい?

*3:世界は本質的には低次で局所性がありマルコフであるからであるとする仮説。詳細は http://ibisml.org/archive/ibis2016/ibis2016okanohara_wo_video.pdf (pdf) あたりを見てください。