PyTorch: requires_grad = False と optimizerにparamを与えないことの違い

疑問 つくりながら学ぶ! PyTorchによる発展ディープラーニングの転移学習を実装しているときに出てきた疑問。 モデルのパラメータにrequires_grad = Falseを設定することと、optimizerにparamを与えないことは動作的に異なるのだろうか。 書籍の中で、モデルのもつパラメータのうち、更新したいパラメータにはparam.requir…