DeepLearningによる将棋の学習8~元のモデル~

前回はフィルタ数を変更して実験をしてみました。 今回はいろんな実験をしすぎて情報が取っ散らかってきたように思えるのでここらで一度標準的なものを再実験してみることにしました。 ResidualBlock5つ、フィルタ数192、optimizerはSGD、patienceは10、損失の比は1:0.1、バッチサイズは256での実験です。 Epoch Total Los…