背景 既存モデルのLossをマルチラベルに対応できるように改良していたときに以下で詰まっていた. lement 0 of tensors does not require grad and does not have a grad_fn やりたいこととしては多クラス分類→多ラベル分類. そのときに元々あったLossであるnn.CrossEntropyLoss をシグモイド出力からのnn.BCEWithLogitsLoss()に変えたかった. 原因 おそらくlossの値を逆伝播するときにgrad_fnを参考に行っていると考えられる. 独自の平均だったり合計などをlistとかに変えて計算しまうと,…