[活性化関数]ReLU(Rectified Linear Unit)/ランプ関数とは?
用語「ReLU(Rectified Linear Unit)/ランプ関数」について説明。「0」を基点として、0以下なら「0」、0より上なら「入力値と同じ値」を返す、ニューラルネットワークの活性化関数を指す。