站长工具seo域名解析不了,网页设计与制作初学者教程,云南网站设计方案,淘宝关键词优化工具课程地址和说明
损失函数p2 本系列文章是我学习李沐老师深度学习系列课程的学习笔记#xff0c;可能会对李沐老师上课没讲到的进行补充。
损失函数
损失函数是用来衡量预测值 y ^ \hat{y} y^或 y ′ y y′与真实值 y y y的差别#xff0c;下面给出常见的损失函数类型可能会对李沐老师上课没讲到的进行补充。
损失函数
损失函数是用来衡量预测值 y ^ \hat{y} y^或 y ′ y y′与真实值 y y y的差别下面给出常见的损失函数类型
均方损失函数L2 LOSS 【注】蓝色的线是它的二次函数图像绿色的线是它的似然函数 e − l e^{-l} e−l 它的似然函数为高斯分布橙色的线表示的是损失函数的梯度。当预测值 y ′ y y′和真实值 y y y距离比较远的时候则损失函数的梯度比较大参数更新比较多当预测值越来越靠近真实值损失函数的梯度会变得越来越小。 【提问】请用通俗的语言解释一下何为似然函数其用途是什么什么是高斯分布 【chatGPT回答】好的我会尽量用简单的话来解释这些概念。 似然函数 想象你有一个盒子里面混合了红球和蓝球。你闭上眼睛摸出了10个球结果有7个红球和3个蓝球。现在你想知道这个盒子中红球和蓝球的比例但是你不能直接去数每种球有多少个。 似然函数就是一个帮你估计这个比例的方法。你根据摸出的球的比例反过来估计整个盒子里红球和蓝球的比例。似然函数描述了在不同的比例假设下观察到现有数据你摸出的10个球的颜色的可能性。 用途似然函数在统计学和机器学习中经常用于参数估计。例如我们想要估计一个模型的参数可以通过找到使似然函数最大的参数值来实现。高斯分布 高斯分布也叫正态分布或“钟形曲线”是一种描述数据分布的方式特点是中间最高两边逐渐减小形状像一个钟。例如人类的身高分布大部分人的身高都集中在平均值附近少数人的身高非常矮或非常高。 为什么我们经常听到高斯分布因为在现实生活中许多随机现象的分布都接近或遵循高斯分布。例如实验测量误差、人们的考试成绩等。 高斯分布可以由两个参数描述均值平均值和标准差描述数据的离散程度。 希望这些解释对您有帮助 【提问】请加一些具体示例和数学计算 【chatGPT回答】好的我们再进一步详细探讨这两个概念。似然函数 设想一个简单的场景你有一枚不公正的硬币抛出正面的概率是 p p p抛出反面的概率是 1 − p 1-p 1−p。现在你抛了这枚硬币3次结果观测到了2次正面和1次反面。那么似然函数就是描述在给定不同的 p p p值也就是正面出现的概率下观察到这组数据2次正面1次反面的概率。 数学上这个似然函数可以写成 L ( p ) p 2 ( 1 − p ) L(p) p^2(1-p) L(p)p2(1−p) 如果你想知道哪个 p p p值最有可能就需要找到使得 L ( p ) L(p) L(p)最大的 p p p值。高斯分布 高斯分布的数学形式是 f ( x ) 1 σ 2 π e − 1 2 ( x − μ σ ) 2 f(x) \frac{1}{\sigma \sqrt{2\pi}} e^{-\frac{1}{2}(\frac{x-\mu}{\sigma})^2} f(x)σ2π 1e−21(σx−μ)2 其中 μ \mu μ是均值 σ \sigma σ是标准差。 示例假设某高中学生的数学考试成绩遵循高斯分布均值是70分标准差是10分。那么一个学生分数是80分的概率密度是 f ( 80 ) 1 10 2 π e − 1 2 ( 80 − 70 10 ) 2 f(80) \frac{1}{10 \sqrt{2\pi}} e^{-\frac{1}{2}(\frac{80-70}{10})^2} f(80)102π 1e−21(1080−70)2 计算这个值你就能知道80分这个成绩在整个分布中的相对位置。 需要注意的是上述给出的是概率密度不是概率。如果想知道一个学生考分数在70到80分之间的概率需要对上述函数在这个区间内积分。 希望这些具体的示例和数学计算可以帮助你更好地理解这两个概念 当预测值和真实值离得较远的时候不一定要用大梯度来更新参数所以用下面的损失函数
绝对值损失函数L1 LOSS 【注】蓝色的线是损失函数曲线绿色是似然函数橙色是梯度。
鲁棒损失函数 【提问】用通俗的语言列出并解释深度学习常见的损失函数及其用法 【chatGPT回答】深度学习中的损失函数是衡量模型预测结果与真实值之间差异的一种方法。选择适当的损失函数对于模型的性能至关重要。下面是一些常见的损失函数及其通俗解释和应用场景 均方误差损失Mean Squared Error, MSE 通俗解释计算模型预测值与真实值之间的平方差的平均值。差异越大损失值越高。 用途常用于回归问题如预测房价、股票价格等。 MSE 1 n ∑ i 1 n ( y i − y i ^ ) 2 \text{MSE} \frac{1}{n} \sum\limits_{i1}^n (y_i - \hat{y_i})^2 MSEn1i1∑n(yi−yi^)2交叉熵损失Cross Entropy Loss 通俗解释衡量模型预测的概率分布与真实的概率分布之间的差异。差异越大损失值越高。 用途常用于分类问题如图像识别、文本分类等。 CrossEntropy − ∑ i 1 n y i log ( y i ^ ) \text{CrossEntropy} -\sum\limits_{i1}^n y_i \log(\hat{y_i}) CrossEntropy−i1∑nyilog(yi^)二元交叉熵损失Binary Cross Entropy Loss 通俗解释是交叉熵损失的特殊情况适用于二分类问题。 用途如垃圾邮件识别、病症检测等。 BinaryCrossEntropy − ∑ i 1 n ( y i log ( y i ^ ) ( 1 − y i ) log ( 1 − y i ^ ) ) \text{BinaryCrossEntropy} -\sum\limits_{i1}^n (y_i \log(\hat{y_i}) (1 - y_i) \log(1 - \hat{y_i})) BinaryCrossEntropy−i1∑n(yilog(yi^)(1−yi)log(1−yi^))绝对平均误差损失Mean Absolute Error, MAE 通俗解释计算模型预测值与真实值之间的绝对差的平均值。差异越大损失值越高。 用途也常用于回归问题与MSE损失类似。 MAE 1 n ∑ i 1 n ∣ y i − y i ^ ∣ \text{MAE} \frac{1}{n} \sum\limits_{i1}^n |y_i - \hat{y_i}| MAEn1i1∑n∣yi−yi^∣Hinge 损失 通俗解释常用于“最大间隔”分类尤其是支持向量机SVM。 用途用于二分类问题也可以扩展到多分类问题。 Hinge Loss ∑ i 1 n max ( 0 , 1 − y i ⋅ y i ^ ) \text{Hinge Loss} \sum\limits_{i1}^n \max(0, 1 - y_i \cdot \hat{y_i}) Hinge Lossi1∑nmax(0,1−yi⋅yi^)Huber 损失 通俗解释是均方误差与绝对误差的结合对于较小的误差使用平方误差对于较大的误差使用线性误差。 用途用于回归问题尤其是在存在噪声数据时。 Huber Loss { 1 2 ( y i − y i ^ ) 2 , 对于 ∣ y i − y i ^ ∣ ≤ δ δ ( ∣ y i − y i ^ ∣ − 1 2 δ ) , 其他 \text{Huber Loss} \begin{cases} \frac{1}{2}(y_i - \hat{y_i})^2,\text{对于 } |y_i - \hat{y_i}| \le \delta \ \\\delta(|y_i - \hat{y_i}| - \frac{1}{2}\delta) , \text{其他} \end{cases} Huber Loss{21(yi−yi^)2,对于 ∣yi−yi^∣≤δ δ(∣yi−yi^∣−21δ),其他 这些损失函数在训练深度学习模型时扮演着至关重要的角色帮助优化算法找到使损失最小的模型参数。选择适当的损失函数可以大大提高模型的性能和准确性。