そもそもどういうふうに動いているのかもよくわかっていないのに、大規模言語モデルいろいろ動作試験?してみて、GPU の 専用メモリー (以下 vram)に乗らないとまともに動かないっぽいことだけは学習したので、乗りそうな日本語のものということで rinna/japanese-gpt-1b を動かしてみました。huggingface.coにあるのをそのままコピペして jupyter-notebook 上で実行したら、pytorch や cuda は有り物で動いたのでそのまま。 import torch from transformers import AutoTokenizer, AutoMode…