人間は弱いAIだ

前から「強いAIと弱いAI」とか言ってるのが何かおかしい気がしているんです。たぶん、人間みたいな知能のことを「強いI(intelligence)」として、それに相当するものを作れたら「強いAI」って呼ぼうとしてるんだと思うんですけど…。


AIの話で出て来る、「フレーム問題」というものがあります。参考にWikipediaを見てみますと、


「有限の情報処理能力しかないロボットには、現実に起こりうる問題全てに対処することができないことを示すものである。」

「一つの可能性が当面の問題と関係するかどうかをどれだけ高速のコンピュータで評価しても、振るい分けをしなければならない可能性が無数にあるため、抽出する段階で無限の時間がかかってしまう。」


とか書いてあります。


これの何がおかしいと思っているかというと、「まるで人間は有限ではない情報処理能力を持っている」と言っているかのように見えるところです。人間の脳の大きさは有限なのですから、私の発想ではどう考えても人間の情報処理能力は有限です。じゃあ人間はどうしているのか?というと、単に有限の問題を解いているのだろうと思います。


ところで、私の話になりますが、私は東日本大震災の頃から(大震災だけが原因ではないが)、一体何が正しいことなのかという事がさっっぱり分からなくなってしまいました。そして、自分が何をしたらいいのかも分からなくなってしまいました。その頃からの悩みは一向に解決していません。これはまさに、自分が「フレーム問題に陥ってる」のだと思っています。


普通の人間は、何が正しいか分からなくても、とりあえず生殖のためにとか、仲間のためにとか、国家のためにとか、人類存続のためにとか、何か制約条件を加えることによって、問題が解けるようになるのだと思います。それを、例えば「本当に人類は存続した方がいいのか?」とかいちいち疑っていくと、何をして良いのか全然分からなくなります。それが今の私です。


つまりどういうことか。人工知能についての話の中では「人間みたいな知能を作りたい」と言っていて、人間みたいな知能のことが「強い、汎用的な知能」だみたいなことを言っているように思います。ですが、私の考えでは、人間は汎用的な知性など持っていません。もっと言えば、私の様に汎用的な知性を獲得した人(話の流れで言ってるだけです)は、フレーム問題に陥って子孫を残せずに死ぬので、世界に残る人類は基本的にいつも汎用的な知性を持たない存在となるのではないでしょうか。


「汎用的なAI」が「強いAI」なのだとすれば、フレーム問題に陥ったAIだけが、強いAIなのではないでしょうか?


というわけで、「人工知能が人間の様になるなんて期待し過ぎだ」という話を良く見ますが、私は「人間が汎用的な知性を持ってるなんて期待し過ぎだ」と思っているというお話でした。