最近、LLMのチャットUIとして「SillyTavern」を試しています。非常に多機能ですが、多機能すぎて全貌が把握できていません。 github.com SillyTavernの特徴は、フロントエンド(ユーザーインターフェース)のみの構成で、バックエンド(LLMローダー機能)を持たない点です。 そのためローカルLLMを使う場合は、text-generation-webui・llama.cpp・KoboldCPPなど別のアプリをAPIサーバーとして起動し、SillyTavernと接続する必要があります。 SillyTavern関連のスレッドを見ると、バックエンドとしてKoboldCPPがおすす…