AIの先端研究者のインタビュー番組をいくつか見た。参考になったのは、次のようなフレーズ。 ・Chat-GPTに代表される生成AIの基本は、大規模言語モデルである ・単純に言うと、言語の列を見て、次の言葉(単語)を予測するもの ・それまでのAIは、言語の列(意味)を十分認識しないので、予測精度が低い ・大規模言語モデルとなって、意味を(表面的にかもしれないが)理解し始めた ・意味が分かるようになると、AIを「心を持つこと」に近づけられる ・ただし、人間の脳が消費するのとは数桁違うエネルギーを使ってしまう 特に面白かったのは、「心とは、言語が積み重なったもの」だと、AI研究者たちが思っている事実だ…