大規模言語モデルは文字通り深層学習のDeeperで規模が破格なモデルです。 GPTの系列を見てもその内部パラメータや訓練データの数値の大きさは圧倒的です。しかも、年々増加しているわけですね。 LLM製品 公開年 訓練データ量 パラメータ数 GPT-1 2018 約30億トークン 120,000,000 GPT-2 2019 約280億トークン 1,500,000,000 GPT-3 2020 約4000億トークン 17,5000,000,000 PaLM 2022 約7800億トークン 54,0000,000,000 GPT-4 2023 (非公開;約1兆トークン) (非公開:数千億~数兆) …