実際にやったこと # パッケージのインストール !pip install transformers sentencepiece accelerate bitsandbytes from transformers import AutoTokenizer, AutoModelForCausalLM import torch # トークナイザーとモデルの準備 tokenizer = AutoTokenizer.from_pretrained( "tokyotech-llm/Llama-3-Swallow-8B-Instruct-v0.1", ) model = AutoModelForCausal…