ぶつりやAI

物理屋の視点から、原理原則を大事に、ディープラーニングのわかり易い説明を心がけています。

【実践基礎2】ミニバッチとエポック

前の記事   次の記事


ディープラーニングの学習プロセスでは、大量のデータを用いてモデルのパラメータを更新していきます。誤差逆伝搬法とは?勾配計算による学習の仕組み で説明したように、誤差をフィードバックしながらモデルを改善していくわけですが、実際のデータ量は非常に膨大です。

例えば、256×256 ピクセルの画像分類を行う場合、訓練データは通常数万枚以上 になります。この全データを一度に処理するのは、メモリ使用量や計算負荷の面で現実的ではありません。

この問題を解決するのが、ミニバッチ (mini-batch) という手法です。本記事では、ミニバッチとは何か、そのメリット、さらにエポック(epoch)との関係について解説します。

最新記事の更新情報等はXでお知らせしています。

ディープラーニングにおけるデータの取り扱いと学習のフロー。訓練データ (train data)、検証データ (validation data)、テストデータ (test data)の3つに分け(data split)、ミニバッチ毎に逆誤差伝搬で学習を行う。validation dataで損失を計算し、エポックを繰り返す(出典:筆者作成)。

学習全体のフロー(出典:筆者作成)