初めに 環境 準備 実行 初めに 公開されたので触っていきます 東北大BERT-largeに対し、batch size 8192, 系列長 256で、日本語WikipediaやMMARCOといった弱教師データによる対照事前学習を行ったモデルであるshioriha-large-ptを公開しました。文埋め込みにおける日本語対照事前学習の事例はまだまだ少ないので、今後も頑張ります!!https://t.co/sBB9CiFhxT— hpp (@hpp_ricecake) 2024年3月12日 環境 L4 GPU ubuntu22.04 準備 ライブラリを入れていきます !pip install -U…