厦门网站建设公司哪家好,邯郸市网络公司,常州云之家网站建设公司怎么样,html5精美网站1#xff09;Likelihood 最大似然估计提供了一种给定观察数据来评估模型参数的方法#xff0c;即#xff1a;“模型已定#xff0c;参数未知”。 简单而言#xff0c;假设我们要统计全国人口的身高#xff0c;首先假设这个身高服从服从正态分布#xff0c;但是该分布的均…1Likelihood 最大似然估计提供了一种给定观察数据来评估模型参数的方法即“模型已定参数未知”。 简单而言假设我们要统计全国人口的身高首先假设这个身高服从服从正态分布但是该分布的均值与方差未知。我们没有人力与物力去统计全国每个人的身高但是可以通过采样获取部分人的身高然后通过最大似然估计来获取上述假设中的正态分布的均值与方差。 最大似然估计中采样需满足一个很重要的假设就是所有的采样都是独立同分布的。 下面我们具体描述一下最大似然估计 首先假设为独立同分布的采样θ为模型参数,f为我们所使用的模型遵循我们上述的独立同分布假设。参数为θ的模型f产生上述采样可表示为 回到上面的“模型已定参数未知”的说法此时我们已知的为未知为θ故似然定义为: 在实际应用中常用的是两边取对数得到公式如下 其中称为对数似然而称为平均对数似然。而我们平时所称的最大似然为最大的对数平均似然即 由上可知最大似然估计的一般求解过程 1 写出似然函数 2 对似然函数取对数并整理 3 求导数 4 解似然方程 Likelihood函数选择 对于 同一个模型likelihood函数可能有不同的选择对于这些选择可能有些比较精确、但是会搜索非常大的空间可能有些比较粗糙但是速度会比较 快我们需要选择不同的likelihood函数来计算后验概率。对于这些Likelihood函数可能还需要加上一些平滑等技巧来使得最大的降低数据 中噪声、或者假设的缺陷对结果的影响。 我所理解的用贝叶斯的方法来估计给定数据的假设的后验概率就是通过prior * likelihood变换到后验分布。是一个分布变换的过程。 3) loss function(损失函数) x是输入的数据y(x)是推测出的结果的模型t是x对应的真实结果L(t,y(x))就是loss functionE[L]表示使用模型y进行预测使用L作为损失函数的情况下模型的损失时多少。通常来说衡量一个模型是否能够准确的得到结果损 失函数是最有效的一个办法最常用、最简单的一种损失函数是 不过我一直不知道为什么这里用的平方而不是直接用绝对值有详细一点的解释吗:-p 4) Model Selection(模型选择) 前 文说到了对于likelihood函数可以有不同的选择对于先验的概率也可以有不同的选择不过假设我们一个构造完整的测试集和一个恰当的损失函数最 终的结果将会是确定的量化的我们很容易得到两个不同参数、方法的模型的优劣性。不过通常情况下我们的测试集是不够完整我们的损失函数也是不那么 的精确所以对于在这个测试集上表现得非常完美的模型我们常常可能还需要打一个问号是否是训练集和测试集过于相像模型又过于复杂。导致了over- fitting后文将会详细介绍over-fitting的产生 Model Selection本质上来说是对模型的复杂度与模型的准确性做一个平衡本文后面将有一些类似的例子。 Example 1Sequential 概率估计 注此例子来自PRML chapter 2.1.1 对于概率密度的估计有很多的方法其中一种方法叫做Sequential 概率估计。 这种方法是一个增量的学习过程在每看到一个样本的时候都是把之前观测的数据作为先验概率然后在得到新数据的后验概率后再把当前的后验概率作为下一次预测时候的先验概率。 传统的二项式分布是 由于传统的二项式分布的概率μ是完全根据先验概率而得到的而这个先验分布之前也提到过可能会由于实验次数不够而有很大的偏差而且我们无法得知μ的分布只知道一个μ的期望这样对于某些机器学习的方法是不利的。为了减少先验分布对μ的影响获取μ的分布我们加入了两个参数ab表示X0与X1的出现的次数这个取值将会改变μ的分布beta分布的公式如下 对于不同ab的取值将会对μ的概率密度函数产生下面的影响图片来自PRML 在观测数据的过程中我们可以随时的利用观测数据的结果改变当前μ的先验分布。我们可以将Beta分布加入两个参数ml表示观测到的X0X1的次数。之前的ab是一个先验的次数不是当前观测到的 我们令 a’b’表示加入了观测结果的新的ab 。带入原式可以得到 我们可以利用观测后的μ后验概率更新μ的先验概率以进行下一次的观测这样对不时能够得到新的数据并且需要real-time给出结果的情况下很有用。不过Sequential方法有对数据一个i.i.d独立同分布的假设。要求每次处理的数据都是独立同分布的。 原文 http://www.cnblogs.com/LeftNotEasy/archive/2010/09/27/1837163.html