大規模言語モデル(LLM)の進化が目覚ましい昨今であるが、その限界についても冷静に見極めねばならない。特に「ハルシネーション」と「ポチョムキン理解」という2つの問題は、AIの理解の本質に迫る上で避けて通れない。 xenospectrum.com まず、ハルシネーションとは、AIが実際には存在しない事実を、もっともらしく語ってしまう現象である。たとえば、実在しない論文をでっち上げたり、架空の人物を事実のように説明したりする姿に見覚えのある方も多いだろう。これは、モデルが文章の流れとして最も尤もらしい形を選ぶ結果、現実との整合性が崩れることに起因する。つまり、正確さよりも「らしさ」を優先してしまう…