株式会社神戸デジタル・ラボ DataIntelligenceチームの原口です。 前回は、Dropoutを導入することで過学習を抑制しました。 もう一度内容を確認したい方は、以下の記事をご覧ください。 kdl-di.hatenablog.com 連載を最初から読みたい方は、以下の記事をご覧ください。 kdl-di.hatenablog.com 今回はAIモデルに「ひと手間」加えることで、学習の安定性を向上させます! 前回の問題点 ニューラルネットワークの収束が遅い原因 Batch Normalizationとは? 実験 実験結果 まとめ 前回の問題点 前回はDropoutを利用することで、モデル…