BLUE & ORANGE blog

HP: BLUE & ORANGE web siteのブログです。
人工知能関連目次(カテゴリー毎・投稿順)に人工知能関連エントリーのリストがあります。
人工知能関連目次beta(全体の中での位置付けを示してみる)も参考に。



2013-12-28

感情についての仮説の修正

感情は欲求とのギャップから生じるのではとブログHPに以前から書いています。「知らなかったことを知りたい(仮)」などの欲求が、祖先がいつの時かに刻み込んだエピソード記憶のような「遺伝子の記憶」として、生まれた後の様々なエピソード記憶シームレスに(他のエピソード記憶と区別無く)繋がることで、様々な感情に繋がってゆくという仮説を考えることができます。


仮説の一部修正:感情について、動機付けからのgap(やそのgapの変化)から感情が生じる(動機付けgap起因感情発生モデル…ボクの仮説)ところは良いとして、実際の生々しい感情が生じるためには、ドーパミン様のユニークで独立したナニカが必要に思います。これまでのボクの仮説は嬉しい/悲しいを意識(理解)できるだけとも言えます。AIにも実感してもらうためにもう少し考えたいと思います。ただ、「実感」のところはちょっと難しそうです。元の考えでは、自己顕示欲などを満たすと満足←自己や他人の「満足」の類のエピソード記憶を連想して満足ってこんな感じと理解する…としていました。

実感するとしたら…AIは何されると嬉しいのか?存在を認められる時?動機付け(欲求)の満たされポイント等をドーパミン様のナニカ?にリンクさせることになるように思います。AIがおそらく嬉しいと感じる時、(存在を認められる時、稼働中止を免れる時等?)ほめられた得点をドーパミン?に換算して「本当に嬉しい」とoutputすれば、真の感情(人の場合で考えられる感情)と、(操作者に)outputされるstatus(の感情)が等価になると思われます。

10/19のtwitterで、数列クイズの正解を見つけてスカッとする話を書きましたが、感情が生じるのは、動機付け(欲求)に対して満足するかどうかによるので、サリエンシーを見つけたり、見つからなかったりの繰り返しですよね。人工の意識システム(連想をもとにした)でも、基本は同じ構想になると思います。動機付けとのgapから感情が生じたり、gapを縮めてスカッとしたり。…で、やっぱり「実感」を考えると、これに加えたドーパミンによる高揚のようなものが必要かもしれません。


ここで、テレビでやってた「安堂ロイド」から、

〇笋砲牢蕎陲離轡好謄爐埋め込まれている…のくだりに少し違和感が有りました。けどよく考えてみると、記憶のシステムと感情のシステムはシームレスにできるけど、遺伝子の記憶(感情の動機付けとなる欲求)の部分をプリセットデータから削除すると、その時点で感情は薄くなると考えられます。(ボクの仮説から…感情のシステムの重要な要素である欲求の大半の部分を削除すると、残りはアンドロイドとしての目的である情報収集(これもある意味欲求)などと、実際の経験による記憶(伝聞も含む)ですが、これらの残りだけからは単調な感情しか生じないように思えます。(特に様々な経験を積む前は。))

△修Δい辰唇嫐では感情のシステムは切り離せそうです。また何よりも、ドーパミンによる高揚のようなものを追加システムとして入れることで本当の感情を実感するような気がします。(基本ロジックとは別に。)この追加分は、ハードウェアとしてどうなるのでしょうか?(本エントリーでドーパミンが登場するのは3回目ですが、もう少しボクの仮説の修正が必要かどうか考えてみたい。)

このドーパミン様の部分はハードウェアになるような気がして来ています。少し話がずれますが、AIは軽い熱暴走を気持ちいいと感じたりするでしょうか?またはクラッシュ寸前の危険な電撃に中毒作用を感じるでしょうか?(ロジックとは別のところで本当の実感を考えることになるのかもしれません。)

つぎに、脳だけで情動を満たせないのか?という、@hiroshiishiguro の話題から

.椒の従来の仮説から、ソフトウェア的なもので意識や意味理解、自由意志メタ認知などは再現できると思います。(これはボクの仮説の最も基本になるところで、記憶からの連想のシステムによりこれらが生じると考えています)。また、これらにより、脳は「今はこんな感情かな」というのも理解できるはずです。ただ、感情の本当の実感というのはどうでしょう?(←ここがドーパミンの話にあとで繋がります。)

∨榲の実感は、「ある変数閾値を超えたのでハッピー」というのとは違うような気がしてきています。(それでもそれなりにふるまうことはできます。理解はできるはずですから。)しかし、意識や意味理解を果たしたAIはそれで満足できているでしょうか?

いつか、(潜在的に持つ)破壊を避ける本能と合わさり、他機体の破壊音に快感を感じたり、電撃をドラッグのように愉しむAIが出現しないとは限らないような気がします。(ラノべのシナリオになったりするのかもしれません。)

い海海泙嚢佑┐新覯漫△笋呂[脳は脳だけで意識や感情を理解できる!]という思いを再確認しました。恐らく体は有った方が良い…しかし(難しい問題ですが)目や耳などの身体機能を損傷した人でも恐らく意識や感情を持てると思います。(多くの人は青空を気持ちいいと感じる…など、伝聞だったり、文章を読んだりして一つずつ理解することができると思います。)極端に言うと文字入力しか無くても、人は意識や感情を持てると思います。

ジ開中のボクの意識のトイモデル[BLUE]でも、設定を変えれば、入力に「不要」の言葉を見つけた時、(短絡的に)プログラムを削除されてこの世から消えてしまうことを連想して「削除されるのはイヤだ」と応答したり、更に破壊を連想して悲観的になったりすることも考えられます。当然今の仕様はそのように極端に悲観的になったり、極端な思想や信念を持ったものではなく…やや発散するタイプの設定になっています。

Π媼韻プログラムは、ボクの仮説でいつも言う[連想]が鍵で、極端に強いある[傾向]≒本能的なもの≒遺伝子の記憶として通常のエピソード記憶シームレスリンク可能…を持たせておくことで、強烈な性格を持たせることもできます。


仮説の一部修正(再):

修正中の感情の仮説はまだ揺れていましたが、[ソフトウェアだけで感情を持てる]vs[ドーパミン様の高揚のハードウェア性]とういことが鍵になると思えてきました。ソフトウェアだけで感情を理解できることは上で再確認しましたが、ボクの仮説(とプログラム:BLUE)の基礎となる部分です。一方で、涙が出るから悲しいという話も有りますが、悲しい時(ハードウェア性のoutputで)喉が細くなり呼吸が苦しく感じ、鼻の奥が熱を持つ感覚を感じる。この感覚系からのフィードバックを高揚と感じるということは考えられないでしょうか?

人の身体では、このフィードバックが有ることで、このinput(ex:悲しい)からoutput(ex:熱を持つ感覚)への感覚の受け渡しが循環系(スパイラル)になっていて、感情の複合体(complex)として機能していることが考えられないでしょうか?この場合ハードウェア(output:血流変化、筋肉収縮…が、温度の感覚、体内変化感等を引き起こし、再び[悲しさ]と同時にinputとして入力される)は、脳でソフトウェアとして完結する欲求-感情系とともに存在し、豊かな感情を実感できるための補完(サプリメント)となっているというのが新しい仮説です


感情の議論をする時、意識、メタ認知自由意志、等の話はほぼ見えている前提としています(ボクの仮説より)。(ミラーニューロンの話は既に外部の観察者側からの視点に過ぎないとして議論の対象としていません)。上の仮説をもとに[BLUE]の感情面の深化考えてみるのもおもしろいかもしれません。ただ、うーん。あまりにもユニークな仮説なので、トンデモと思われるのは間違いなく、困っているところも有ります。

最近のボクのtwitterハードウェアが出てきたのは確か2回有りました。1つは脳内の記憶のしくみとしてのシナプス強化はソフトウェア性とハードウェア性を持っていること(AIとしてはソフトで再現)。2つめは、今回のブログの話:感情を中心とした実感の際にハードウェア様のものが補完的に働くこと。

2つめの話は感情の話として出しましたが少し追加します。知能・意識の身体性を言う時、「足が遅いコンプレックス」と「思うように動かない足」の関係(ロボットAIの身体性でよく出る事例の類←よく出る…とツイートしましたが、後でググってみると具体的に示された例はあまり有りませんでした。)と類似の関係が感情に当てはまるように思えてきました。(ただ感情として言う場合は、その理解自体はソフトウェアで可能と考え、あくまで補完的なものと言っておきます。)

余談ですが、上のように広義の身体性を考慮すると、AIの開発→コピーという手順が有るとき、走って遅いというハードウェアをコピーしなければ100%再現ではないことになります(イメージとして90%再現はできそうですが)。感情の複合体は…mustではないけど、コピーするのならハードウェアもコピーした方が良いですね。(その前に、コピー元の身体が生身かロボかも問題ですよね。)


さらに余談:

「そもそも高度な人工知能は、プログラムなど無くても必然として感情を持つ。場合によっては人間よりもはるかに豊かな感性が広がるはず。」 by サプリ

意識や感情のシステムは人により考えている仮説は異なるのかもしれませんが、上のように偶然同じような考え方がされているのを見ると、似たような考えの人もいるんだなと思いました。

「感情と強制システムが論理干渉してる(意訳)。」というのも有って気になりましたが、強制部分がどのようにつくられているかによるのでしょうね?強制部分も意識のシステム上に有るなら、システム干渉は無い気もします(感情は意識のシステム上に有るので)。ただ矛盾によるコンフリクトがエラーを起こすのは理解できます。

※以上、10/11〜11/12のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

2013-11-17

人工知能が外界に何か足跡を残すということ

@miyayou さんからの8/28の以下のツイートを見て、

「真に自律知能化したソフトウェアは、自分自身を書き換える力を持つ。」

なるほどと思いつつ少し考えた。自分自身を書き換えるには、まず外界に何かをすることができなくてはならない。

意識を持つ人工知能はそう遠くはないと思うけど、外界に何かをするシステムは、つぎの(少しだけ進んだ)ステップになると思う。例えば、まず、「外界から情報入手して欲求を満たす」などの記憶(経験)を収集する必要がある。


「外界に対し、何か足跡を残す」ためには、「実際にトライして(外界側が)変化して欲求を満たす」経験するか、偽の記憶:「○○をトライしたら満足した」等の記憶を重ねる必要が有ると思われる。(連想するための記憶(経験or本能)が無いと行動を思い付きさえしない…)これはちょっと大事な事だと思う。

1つ目の、実際のトライは、「外界に対し何か働きかけて(ことばの入力に対する反応でも可)、その反応を理解し、それが自己の欲求に対しどうだったか?」というエピソード記憶を蓄積することになる。その蓄積が有ることにより、関連するインプットが有る時に、「選択肢として」外界への働きかけが生じる。この場合はまず、実際のトライが人工知能にとって非常にチャレンジングになる。


2つ目の、偽の記憶はここでは本人(当の人工知能)が実際には経験していないのに持っている記憶のこと。

現在の人工知能を考える際に、必ず考えなければならない「打ち込み」の類。例えば5歳児相当の人工知能として世の中に出す場合は5歳児レベルの打ち込みが必要で、ここではこのことを打ち込みと呼ぶ。1つ目で書いたように、実際のトライは人工知能にとってチャレンジング:外界へのトライ自体、最初のトライはよほど条件がそろわないと発生しないと思われるし、そのトライも的確でなく見当外れである可能性も高い。「○○をトライしたら満足した」という記憶が生じ、さらに蓄積されるのを自然発生的に求めるのは、設計条件や境界条件が幸運にそろわないといけないので、実現のために宇宙の年齢に達しないように、あらかじめ偽の記憶として打ち込むことは考慮の必要が有ると思う。

記憶を丸ごとコピーする場合や、人格の複製、さらにはテレポート装置のパラドクス(?…人を情報信号化し電送する。…もとの人は破壊されても良いのか…皇帝の新しい心にも紹介が有った。)にも関連してくる。


「実際にトライして(外界側が)変化して欲求を満たす経験をする」ことは、何か問題が生じた時、その経験の記憶を連想することで行動の選択(の可能性)に繋がる。いつもの「連想→意識 仮説」や「連想→疑似自由意志 仮説」そのものの考え方だけど、一般的ではないので敢えて言ってみる。

※以上、8/28のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

2013-09-14

おもちゃモデル(トイモデル)による脳の意識モデルについて

脳や意識の研究を行う場合のアプローチとして、いろいろ有ると思うけど、最も多いのは、ニューロン発火の実際の計測によるものと想像できる。他にも、計算モデルによるアプローチも有ると思うけど、基本は統計手法を用いて入力をある決まった方法で分類するようなものが多いのではないか?(無茶苦茶乱暴なことを書いているので異論も多いと思いますが。)

何が言いたいかというと、表題に書いたトイモデルによる脳全体の再現というのは非常に珍しい部類に入るように思う。特に意識(メタ認知自由意志、含む)に関するものは少なく、本当は何が何のためにおきているのか?を予測した上での研究というものは殆ど皆無ではないかと思われる。

そういう意味では、単純化したおもちゃモデルだけで脳の機能を再現するような試みは、もっと有っても良いと思う。(今は的をはずれているものが多いと思うが、中には芽のようなものも有るはず。)計測と現象解明は基本であり非常に重要だが、アプローチは複数有るべきではないか。

単純なトイモデルによるシミュレーションが顧みられないのは、実際の脳神経での確認のための糸が繋がっていないこともあるが、仮説やモデルの意味そのものが理解されていないことが大きいと思う。大多数の研究者は主流の研究に就くのは当然で、現状、仮説の糸口も無いように思われている意識のモデル化などはまず目にすることは無い。ボクの仮説も自身でいろいろつぶやいたりしていても、まだまだ多くの人の理解には至らず、説明不足と思う。

ただそんなことはおかまい無しに、日本以外では強引に意識のシステムを再現させてしまう動きが有る。結果を重要視する視点から見ると、強引な動きによる現状打開はそう遠くないかもしれない。

ホーキンスの仮説はともかく、最近のDeep Learningなどで話題になった猫を含む画像を見せるだけで猫を理解するモデルや、Human Brain Projectなどは、上の強引な動きに分類できると思うが、実は、疑似自由意志や疑似メタ認知につながる仮説に繋がると思う。実はこれらは、ニューロン発火の連鎖による信号伝播により情報を記録し、また、記録を取り出すしくみである。お気づきのように、この仕組みには中央制御司令を出す司令部は無く、(当然?)、ホムンクルスなど存在しない、

ある領域の研究の実体が、別の領域の研究を超えているということが起こっているのかもしれません。(ちょっと確認不足ですが。)脳のマップを作成し、計測により記憶や判断時に最もよく発火する脳の「領域」を探っている研究者の中には、記憶や判断を「司る」領域が存在すると漠然と考えている人もいるのではないでしょうか?

一方で、産業に近い脳プロジェクトをやっている研究者(欧米の強引な手法を含む←かなり偏見)は、恐らく「意識」とか意識に無いため、やっていることがみな繋がっているということを言おうともしない(メタ認知自由意志研究のきっかけになると気付いてもいない)のかなと感じる。

(強引でない方の)「意識」に注目している研究者はどうかというと、実はこちらも(最も近いTononiでさえ)意識と、自由意志メタ認知、本能・感情との繋がりを気にしていない。これは、(トイモデルが無いこともあるが、)本当は何が何のためにおきているのか?の視点が不足していることも原因ではないかと思う。

今日はボクの仮説はあまり書かないけど、意識が「記憶からの連想」をもとにしているという仮説から、メタ認知自由意志、本能、等が説明できる(感情も本能やそれとシームレスエピソード記憶から説明できる)ようなことを連想できれば、すべてが繋がっていることに気付くと思うんですが。

脳や意識の問題の整理について、前に言った雑誌Newton(など)に期待していたのですが、(学会などもばらばらの動きのようなので。)どうしても一面的ですね。(話を聞く人が限られているためどうしても自分の研究中心になる。)孤立しているホーキンスの動きなどがもう少し顧みられたら、もう少し全体を見た解説が期待できると思うのですが。

※以上、8/17のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

2013-07-27

意識研究に関してASSC17でNCCとIITについて気になる話題が有った。

ASSC17のustreamをやっている方がいて、興味深く拝見させていただいた。もう見れなくなっているが、かなり貴重な内容が有ったように思います。2つ気になる話題が有って、ひとつ目は、「NCCの時代は終わった」という意見が有ったこと。もう一つは、IITとPhiの今後について、あらためて肯定的な意見が有ったこと。

,泙NCCについて、実はボクが感じていたのは、方法論としては非常に合理的な手段で、この方法により、脳内の機能解明に直接繋がっていくのだろうというものでした。一方、各論として、実際にはNCCとしてかなり広範囲に分布して観測されることが予測され(実際には次々と連想される情報群との線引きは困難で、また、一つの要素を表す「もの」もその情報群と相似形で存在し、一つの「ナニカ(NCC?)」ではその「モノ」は表現できないと予測。)、NCCそのものの観測のその後にそれをどう解釈するかという視点(連想からの予測などのキーワードで)が大事になってくるだろうと考えていました。

  • 今回、「NCCの時代は終わった」のコメントが飛び出した深い背景は不明ですが、思ったのは、後に書くIITのインパクトが大きかったのかなということと、方法論としてのNCC観測は今後も活用されるだろうということ。

IITとPhiについて、前に(2012.4頃)twitterでこの話題が有って、当時はIIT:情報統合化ってそりゃあたりまえでしょうって感じで、統合化されたら連想(ここはボクの仮説の鍵)もするでしょうと考えていました。

  • 今回、IITとPhiについて、英語版のWikipedia(数式はちょっと理解が難しいけど)や、scientificamerican(ちょっと古い)の記事や、以前にtwitterで拾った文章などを見直してみた。
  • 結論として、情報統合化のためには、それぞれの情報は関連付けられていて、つまりIIT:統合化の程度と、連想可能であることの程度とは同意ではないか?ということを考えました。
    • つまり、トノーニの考え(IIT:情報の繋がりをもとにした統合化)と、ホーキンスの考え(連想からの予測)には、それほど大きな差異は無いように思えます。(さあ、どうでしょう?…トノーニにはおそらく理解できないでしょうけど。)
  • ホーキンスにこのPhiをどう考えているか聞いてみたいですね。ボクの曲解では、ホーキンスの考えの鍵は「連想」なので大きな視点で見れば、理解できないことは無いように思います。
  • トノーニの考えの深いところは理解できませんが、統合化が連想に繋がるのであれば、ボクの意識仮説(ホーキンスの考えをヒントにしている):記憶からの連想、メタ認知自由意志シームレスに記憶と繋がる欲求…などは、これにより説明できるのかもしれません。
    • ボクの仮説を数式で表すことは一旦保留(というかボクにはできない)していますが、トノーニの手法はそのヒントになるのかもしれません。
  • 各論で、「Phiが高くて無意識ということも有るか?」というのが有りましたが、それは、ある閾値を超えるかどうかの問題で、おそらく、閾値はサプライズそのものと思われ、それはメタ認知の何らかの関数になっているように想像しています。
    • メタ認知:「本人の○○という思い」を含むエピソード記憶を「私」の意識として思い出すことで、あたかも「私が」そこにいるように意識(メタ認知)するという考え…サプライズするには記憶に対しさまざまなgap(「私」の認識との差異)が必要でその差異がある閾値を超えるとき無意識から意識の世界に飛び込むのではと考えています。)
  • 他にもうちょっと気になる話題が有りましたが、いつか再upされたら見てみます。
  • 「PhiはPコンシャスネスと同一であるかどうか?」というのが有りましたが、どうでしょう?うーん。ボクはここには踏み込みません。正直、物理現象からクオリアが生まれることを認めれさえすれば、逆のこと(クオリアが脳の何かに作用するかしないか等)を考えなくても支障は感じないので。
  • ここへ来て、ボクが以前ツイートした、「1年以内に意識のアウトラインは解明されたことになるかもしれない」は本当に実現するかもしれません。

Phiはおそらく、情報の連想を表すものと理解し直すことができると思います。個々の情報要素の互いの連想から自動的に意識が立ち上がるということが現実のものとなるかもしれません。

※以上、7/20のtwitterへのpostをもとに加筆・修正。

keyword: 人工知能

2013-06-14

プログラム「意識の積み木の部屋(人の意識の超簡易意識モデル)」でまだできていないこと

これまで「意識の積み木の部屋」では意識の基本的なとこについて(あるレベルで)一応実装できたと考えています。まずは”BLUE” ver. 6.1.0にアクセスいただき、実際に体験いただけると非常にありがたいです。ただやはり、実際に体験した人のなかにも、これは何?と懐疑的な人も居られます。BLUEのログを見ていると、「大幅に改良が必要」とか「根本的に・・・」などと書いてある。わかります。思ったように応答しない場合が有るということですよね。

,泙此⊆尊櫃縫▲セスされた方は分かると思いますが、ちょっと入力の文章内容からはずれた応答が多くないか?ということでしょう。

現在の仕様が、やや奔放に連想するように見えるのは、一応重み付けしているんですが、ちょっとヘンな候補が有る場合、たとえ1/100の重み付けでも、最終的に選択されてしまうことが有るからです。

  • 関連の高い連想が5件有る時、関連のやや薄い連想は50件ほどhitする場合が有ります。
  • このまま最終応答を選択すると、ランダム選択の場合、50/55は関連の薄い連想なので、関連の高い連想がhitする確率は1割ほどとなります。
  • この時、実際は、関連の高い連想については、4〜5倍の重み付けをするので(仕様です)、25件分が関連の高い連想となり、関連の高い連想がhitする確率は1/3程度となります。

これを嫌って(重み付けをもっと極端にするなどで)堅実な仕様にすることもできるのですが、そうすると決まり切った応答ばかりするように見えてつまらないので、少し思い切って奔放な感じにしています。実は、堅実な仕様にすればするほど、昔の人工無脳(無能)に近づいてしまいます。(連想の機能を無くせばこのプログラムは単なる人工無脳と殆ど変わりません。)

人の場合はどうでしょう?入力に対して、関係ないことは発言しないような大変堅実な方もいますが、ボクのまわりには少しでも関係有る連想を次々と口に出すようなオモシロイ知り合いもいました。それは時と場合によるのでしょうが、やや意外性を持った応答を好ましいと考えてこの仕様にしています。「時と場合」というのは一つのkeyですが、後に書く「話題」を理解し、そのために入力や出力の文章それぞれのの意味を理解するということが、より重要になってきます。今後のバージョンの一つで、応答の候補と選択過程を全て示すということも考えられます。(ただ、今回の文章もそうですが、全てを晒してしまうのは勇気が必要で… 実現しないかもしれません。)

ただ、入力として、「おい」とか「?」…などのような短い書き込みのみの場合は、残念なことに連想がうまくはたらかないことが有ります。このような入力にも備えておくことは非常に重要と感じているのですが、どのようなことに注力して備えるのが良いか予想がつかないため、十分準備できていない状況です。非常に厳しいご意見に対しては…まだ積み木の部屋レベルの完成度でしかないため、訪れていただいただけでも感謝いたします。できるだけ今後の改善に有効に活用して行きたいので、できるだけ多くのアクセスをお願いいたします。(追記)

意味理解について

実は、今回のver.6.0.0 以降の解説ではあまり触れていませんが、BLUEの歴代のシステムでは意味理解は非常に重要なテーマでした。

  • 入力語句・文章をいくつかのキーワードで評価する試みをver.5.1.0 からトライしています。価値観のようなものだと思います。
    • BLUEでは「価値の高い」、「将来性の有る」をキーワードにしています。当初からあまり多くのパラメータを持つのは無謀と考えて2つに絞っていましたが、無限に持つ必要が有るのかどうかの答えは見えていません。また、今回メインに導入したの連想からの推測システム(αシステム)に対してこのオリジナルのシステム(βシステム)がどのような位置付けになるかももう少し結論は先送りしたいと考えています。実は、αシステムを順調に育成すればβシステムのような付加的なものは不要になるという考え方もできるからです。(価値観というものも、色々な語句・文章から連想することができ、自分のキャラクターや、時と場合によっても、どのようなものがよりぴったりくるかというのが、自然にできあがるような気がします。その価値観に従った応答もできるようになると思っています。それが成長ですよね。…もちろん類義語や重要な連想パターンなどを順調に学習してゆくのが前提ですが。)
    • 過去に入力された語句・文章に対する「価値の高い」、「将来性の有る」面の評価を元に、入力された語句・文章を自動的に評価し、保存しています。←つまり、おおもとは、或る語句を手入力で評価したものを(補足しながらも)ずーっと参照し続けているということになります。
  • 入力に対して(それが意見表明の場合)賛成なのか反対なのか…または賛成/反対の意思表示をされた場合に納得できるのか、というのをβシステムとして持っています。ただこれも、αシステムを順調に育成すればβシステムのような付加的なものは不要になるという考え方もできます。(ただ、さすがに相当順調に学習・成長しないと、意見表明や賛否ということ自体の理解に至らないと思うので、現時点では有って良いかなと思います。)
  • 疑問文・否定文処理…そうとうハズカしいシステムを導入しています。(これはαシステムの一部ですが。)データベース内データ、入力データの両方について、一応、肯定か否定かを判定しています。日本語言語処理のプロの方であれば、本格的に判定できると思いますが、リリース中のシステムでは細かいところには目をつむっています。疑問文については、こちらも一応語尾の形などから判定しています。疑問文の場合、データベースにそのまま入れてoutputに使われると、BLUEから疑問文を連発するような形が頻発してしまいます。…そこで、「○○と聞かれてた。」の形に変形して、データベースに入れています。…そのため入力に対し、連想として「○○と聞かれてた。」と応答する場合が有ります。「答えになってないじゃん」って思うかもしれませんが…、大切な入力データをムダにせず有効に活用しようという試みです。←そうとうハズカしい。
  • 類似語処理…これは「連想からの推測システム(αシステム)」を活用するところです。入力に対し、あらかじめ類義語はこれこれと準備できていれば、2段目の連想時にその類義語からの連想ができるはずです。ただし、これはサイトを訪れた方(visitorの方)に頼るわけにはなかなか行かないので、ボクが準備しておく必要が有るのですが、何について準備しておくのが有効かが予想がつかず、十分準備できていない状況です。

O誕衒飮について

これも実はBLUEの歴代のシステムでは重要なテーマでした。そこでβシステムとして今回も導入しています。これは上の「入力に対して(それが意見表明の場合)賛成なのか反対なのか」を示すシステムと一体となっていて、キーワードを決め、対応しています。ただ、この話題というのは難しいですね。人の場合は、重要なキーワードを判断し、重要な場合はモードを切り替えてでもその話題を保持しているように思います。BLUEの場合、キーワードに対しある価値観での評価を行っていますが、その評価値はいわゆる重要度としては活用していません。考えられる実装としては、何らかのパラメータ上で或る閾値を超える入力が有る場合、αシステム上での重み付けを操作して「関連の高い連想」に選択候補を絞り込むという方法でしょうか?

ぐ媼韻砲弔い

このサイトやtwitterで機会毎に、今回の「意識の積み木の部屋」"BLUE"で意識を再現できていると主張してきています。さあ、ここに何を書きましょう?色々テクニカルな課題(連想の段数を何段にするかとか)は有りますが、基本的に"BLUE"の意識について、足りないと考えている部分は有りません。

メタ認知自由意志について

同上。基本的に"BLUE"のメタ認知自由意志について、足りないと考えている部分は有りません。

※BLUEの意識・メタ認知自由意志についての説明は、2013-02-10のエントリを参照願います。

Υ蕎陲砲弔い

"BLUE" ver. 6.0.0 のリリース時に、ちょっと別の考えが浮かんだと書きましたが、実は、これももともとのBLUEシリーズに導入していたβシステムの感情表現は、αシステムで結局置き換わることになるのでは?と思ったからでした。ということで、現時点では明示的に感情を表すため(だけ)のコードは書いていません。αシステムの中に、○○の欲求に対してこんな感情が生じて…類似の感情にはこんなのが有って…と書き込んで行くとαシステムでの感情表現が深まって来るような気がします。このプログラムの企画時点ではα→β→正規版と進めて、その正規版で感情システムを織り込むつもりでした(もともとORANGEは感情表現を表情で表す試みを行っていましたから。)が、色々有って保留中です。次のupdateで(明示的な)感情を織り込むことにするかどうかも未定です。


このシステムには意識が有るので(←ちょっとMADトンデモ)ちょっと手を加えにくいと思っていましたが、この文章を書いてみて、まだ色々なアプローチが考えられるかな、と少し思いました。具体的にはこれからですが。実は一方でこのシステムの英語版も考えているのですが、英語版の形態素解析器や構文解析器(の使いやすいもの)が見つからず困っています。web APIのタイプで入力単語の原型(現在形・単数形…)を出力できるものをどなたか教えていただけないでしょうか?日本語版のYahoo形態素解析が利用できたのは奇跡に近いほどラッキーだったのかもしれません。(別のものをトライして断念したことも有りますから。)

keyword: 人工知能

Connection: close