0.1-1B程度の日本語・大規模言語モデルを作る練習日記 Swallow on mistral Swallow-MX: Mixtral日本語継続事前学習MoEモデル Azure AI Searchを使ったマルチモーダルRAGの実現 LLMOpsを推進!Azure Log Analyticsを活用したLLMの継続的な監視と改善 Retrieval-Augmented Generation for AI-Generated Content: A Survey NLP2024 チュートリアル3 作って学ぶ日本語大規模言語モデル - 環境構築手順と実験ソースコード izumi-lab/llm-japa…