洛浦县网站建设,个人作品链接怎么做,如何确定网站建设 栏目,郑州网络推广大包在Coursera机器学习课程中#xff0c;第一篇练习就是如何使用最小均方差(Least Square)来求解线性模型中的参数。本文从概率论的角度---最大化似然函数#xff0c;来求解模型参数#xff0c;得到线性模型。本文内容来源于#xff1a;《A First Course of Machine Learning》…在Coursera机器学习课程中第一篇练习就是如何使用最小均方差(Least Square)来求解线性模型中的参数。本文从概率论的角度---最大化似然函数来求解模型参数得到线性模型。本文内容来源于《A First Course of Machine Learning》中的第一章和第二章。 先来看一个线性模型的例子奥林匹克百米赛跑的男子组历年数据如下 所谓求得一个线性模型就是给定一组数据(上图中的很多点)如何找到一条合适的直线让这条直线能够更好地“匹配”这些点。 一种方式就是使用最小二乘法通过最小化下面的代价函数J(θ)求得一条直线方程--即线性模型。 其中hθ(x)是待求解的线性模型(本例中就是一条直线)y(i)是样本x(i)对应的实际值hθ(x(i))是线性模型在样本x(i)上的预测值。我们的目标就是让实际值与预测值二者尽可能地接近--二者之间的“差”尽可能地小这样我们的预测结果就越准确我们的线性模型也越好(不考虑overfitting) 最小二乘法就是最小化J(θ)这个函数解出θ代入hθ(x)得到一条直线(hθ(x)就是直线方程)。而这条直线就是我们的线性模型了。 对于这种方式而言我们的模型就是一条直线在我们的模型中直线没有能够反映真实值与预测值之间的误差的因子。把模型稍微修改一下 从原来的(这里的w就相当于上面的θt 就是hθ(x)只是为了统一 一下《A First Course of Machine Learning》中用到的符号) twT*x 改成 twT*xξ 其中ξ 用来表示“误差”---noisex是训练样本数据w是模型的参数。 这样我们的新模型表达式twT*xξ 就可以显示地表示 noise 了(不仅仅是一条直线表达式了)。那现在问题还是怎样求得一个“最好的” w 和 ξ得到“最好的”模型 现在不是用上面的最小二乘法了求解w 和 ξ 了而是用最大似然函数法---见使用最大似然法来求解线性模型2-为什么是最大化似然函数 原文http://www.cnblogs.com/hapjin/p/6623127.html转载于:https://www.cnblogs.com/hapjin/p/6623127.html