一般来说,监督学习就是最小化下面函数: [w^* = argmin_w sum_iL(y_i,;f(x_i;w)) + lambdaOmega(w) ] 对于第一部分——Loss函数,一般有如下几种情况: 如果是Square loss,那就是最小二乘了; 如果是Hinge Loss,那就是著名的SVM了; 如果是exp-Loss,那就是牛逼的 Boo...
线性回归原理复习 1)构建模型 |_> y = w1x1 + w2x2 + …… + wnxn + b 2)构造损失函数 |_> 均方误差 3)优化损失 |_> 梯度下降 实现线性回归的训练 准...