斯坦福ML公开课笔记9—偏差/方差、经验风险最小化、联合界、一致收敛 | 数盟

作者:张雨石

斯坦福大学公开课:机器学习全套视频教程(免费)

斯坦福ML公开课笔记1,2——线性规划、梯度下降、正规方程组

斯坦福ML公开课笔记3——局部加权回归、逻辑斯蒂回归、感知器算法

斯坦福ML公开课笔记4——牛顿方法、指数分布族、广义线性模型

斯坦福ML公开课笔记5——生成学习、高斯判别、朴素贝叶斯

斯坦福ML公开课笔记6——NB多项式模型、神经网络、SVM初步

斯坦福ML公开课笔记7——最优间隔分类、原始/对偶问题、SVM对偶

斯坦福ML公开课笔记8——核技法、软间隔分类器、SMO算法

斯坦福ML公开课笔记9——偏差/方差、经验风险最小化、联合界、一致收敛

本篇与前面不同,主要内容不是算法,而是机器学习的另一部分内容——学习理论。主要包括偏差/方差(Bias/variance)、经验风险最小化(Empirical Risk Minization,ERM)、联合界(Union bound)、一致收敛(Uniform Convergence)。

Ng对学习理论的重要性很是强调,他说理解了学习理论是对机器学习只懂皮毛的人和真正理解机器学习的人的区别。学习理论的重要性在于通过它能够针对实际问题更好的选择模型,修改模型。

1 2 3 4

文章出处:http://blog.csdn.net/stdcoutzyx/article/details/12110337

注:转载文章均来自于公开网络,仅供学习使用,不会用于任何商业用途,如果侵犯到原作者的权益,请您与我们联系删除或者授权事宜,联系邮箱:contact@dataunion.org。转载数盟网站文章请注明原文章作者,否则产生的任何版权纠纷与数盟无关。
期待你一针见血的评论,Come on!

不用想啦,马上 "登录"  发表自已的想法.