Yabu.log
id:yuyubu
Coursera Machine Learning week1 その2
week1の内容が長すぎるので3つに分けます 最急降下法(Gradient Descent) 最急降下法(Gradient Descent)を二条誤差目的関数(Squared error function)に適応して目的関数のパラメータを求める方法 最急降下法(Gradient Descent) 学習効率(Learning rate): 導関数項(derivative term): 導出数項は少しずつ0に近づくため、学習…