回顾:
Loss Function:
过拟合的解决方法:
①最直接:加数据
②降维(特征选择/特征提取(PCA))
③正则化(对参数空间,例如w的约束)
(L(w):Loss Function λ:惩罚系数 P(w):penalty(惩罚项))
即优化的目标为:
若为正则化:Lasso回归 P(w) =
若为正则化:岭回归 P(w) =
=
(备注正则化又叫权重衰减)
接下来就对J(w)求极值计算w的最优值:
目标:
过程:
(岭回归下得到的解析解)
回顾:
目标:
结论:
①无正则化:最小二乘法(LSE) 等价于 最大似然估计(MLE)-(noise服从高斯分布)
②正则化:Regularized LSE 等价于 最大后验估计(MAP)-(noise服从高斯分布)
上一篇: 我拥有我快乐的优秀作文
下一篇:DCHP通讯协议