解説する論文 タイトル: Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations? 著者: Zorik Gekhman, Gal Yona, Roee Aharoni, Matan Eyal, Amir Feder, Roi Reichart, Jonathan Herzig 論文のURL: arXivリンク 発表日: 2024年5月9日 専門外の人でも分かる解説 この研究は、新しい知識でファインチューニングされた大規模言語モデル(LLMs)が事実と異なる回答を生成する傾向、すなわち「幻覚」を促進するかどうかを探ります。フ…