网站开发记入什么会计科目,网上商城平台运营方案,自动编程软件,成都包装设计公司哪家好#x1f680;个人主页#xff1a;为梦而生~ 关注我一起学习吧#xff01; #x1f4a1;专栏#xff1a;机器学习 欢迎订阅#xff01;后面的内容会越来越有意思~ #x1f4a1;往期推荐#xff1a; 【机器学习基础】机器学习入门#xff08;1#xff09; 【机器学习基… 个人主页为梦而生~ 关注我一起学习吧 专栏机器学习 欢迎订阅后面的内容会越来越有意思~ 往期推荐 【机器学习基础】机器学习入门1 【机器学习基础】机器学习入门2 【机器学习基础】机器学习的基本术语 【机器学习基础】机器学习的模型评估评估方法及性能度量原理及主要公式 本期内容本篇文章开始机器学习的模型我们从最简单的开始所以从线性的开始而线性模型中一元的最简单最基础所以先讲解一下一元线性回归~超级基础的文章赶紧收藏学习吧 文章目录 1 线性模型2 一元线性回归2.1 引例及模型表示2.2 代价函数Cost function 3 一元梯度下降求参数3.1 代价函数的简化3.2 二元的代价函数3.3 梯度下降3.3.1 理解梯度下降3.3.2 利用梯度下降求解线性回归 1 线性模型
给定由d个属性描述的示例x其中xi是x在第i个属性上的取值,线性模型(linear model)试图学得一个通过属性的线性组合来进行预测的函数即 一般用向量形式写成 w和b学得之后,模型就得以确定 2 一元线性回归 一元线性回归是一种统计分析方法用于建立一个自变量和一个因变量之间的线性关系模型。在一元线性回归中只有一个自变量即解释变量与一个因变量即被解释变量相关。 该模型的目标是找到一个最佳拟合直线使得该直线能够最好地拟合已知的数据点并预测未知的数据点。最常用的评估拟合程度的指标是最小二乘法它通过最小化观测值与拟合直线的差距的平方和来确定最佳拟合直线。 一元线性回归的模型可以表示为Y β₀ β₁X ε 其中Y 是因变量X 是自变量β₀ 和 β₁ 是模型的系数ε 是随机误差项。 通过一元线性回归我们可以估计自变量和因变量之间的关系并进行预测和推断。 以上是官方解释看不懂没事我们来举一个经典的例子
2.1 引例及模型表示
这个例子是关于预测房屋价格的我们已知这样一个数据集 横坐标表示房屋的面积纵坐标表示房屋的价格。我们的目标是预测在给定房屋面积的情况下房屋的价格是多少。例如如果你的朋友的房子是1250平方英尺大小你可以使用上面的数据集来预测其可能售价。那么我们应该如何进行预测呢
你可以构建一个模型比如拟合一条直线如上图所示。从这个模型来看也许你可以告诉你的朋友他可以以大约220000美元左右的价格卖掉这个房子。这其实就是一个回归问题的例子 Notation:
训练集中实例的数量 特征/输入变量 目标变量/输出变量(, ) 训练集中的实例(x(i), y(i))第 个观察实例ℎ 学习算法的解决方案或函数也称为假设hypothesis
ℎ是一个函数也是模型代表的是从输入到输出的一个映射。这里输入是房屋尺寸大小输出是房屋的价格。 在一元线性回归模型中如何表示h呢 这里表示的就是单变量一元线性回归其图像描述如下图所示
回到例子中我们需要借助h来预测房价。实际上 我们是要将训练集已知的部分数据“喂”给我们的学习算法进而学习得到一个函数ℎ然后将我们要预测的房屋的尺寸作为输入变量输入给ℎ预测出该房屋的交易价格作为输出变量输出为结果。这个过程类似于在中学学到的求解直线方程只是需要多次迭代。
那这个迭代过程究竟跟我们中学阶段的求解有什么区别呢这里就要引出下面这个概念
2.2 代价函数Cost function
对于一元线性函数每一对参数都可以得到一种曲线的画法 那么哪一种是最适合的呢我们用假设函数来表示我们预测结果的模型。那么这个模型好还是不好呢我们需要有一个判别标准这个标准就叫作代价函数。其表示形式如下 对于代价函数的解释
通过训练集我们可以得到假设函数h即我们建立的模型y是在这个点相应的ground truth。通过输入测试集的自变量向函数h和y,得出预测出来的结果与实际的结果让两者相减得到误差通过误差可以看出我们预测的结果好还是不好。求和再平方相当于求他们的方差即预测值与真实值的差距的波动程度们的最终目标就是最小化代价函数 那么我们现在的问题就转化为了如何利用训练集最小化代价函数 3 一元梯度下降求参数
如何求解代价函数呢我们通常使用梯度下降的方法。
3.1 代价函数的简化
我们先理解含有一个参数的代价函数。 下面是当 1 1时的代价函数与假设函数 下面是 1 0.5时的曲线 下面做出 1 0 时的曲线并把代价函数所有的点连起来 由图像我们可以知道当J( θ 1 \theta _{1} θ1)取最小值时的参数所对应的假设函数是拟合数据最好的直线。
3.2 二元的代价函数
上面是之含有一个参数的代价函数这里我们把另一个参数加上去看看怎么求解 再利用上面的方法尝试每一个特殊的点得到代价函数在坐标系中的位置后将他们连起来我们就得到了一个二元代价函数它是一个三维图形 同样利用上面的方法遍历每一个参数 θ 0 \theta _{0} θ0 θ 1 \theta _{1} θ1找到使得代价函数最小的参数。
多了一个参数相当于多了一个维度图像也由一开始的二维拓展到了三维。求代价函数的最小值仍然是我们的目标。 可是要遍历的点太多了我们怎么知道哪里是最小的点呢下面介绍求代价函数最小值的方法梯度下降
3.3 梯度下降 梯度下降是迭代法的一种可以用于求解最小二乘问题线性和非线性都可以。在求解机器学习算法的模型参数即无约束优化问题时梯度下降是最常采用的方法之一。 3.3.1 理解梯度下降
举个例子梯度下降法就是从山顶找一条最短的路走到山谷最低的地方。在这个过程中每次都会沿着当前点的梯度方向即函数在该点的斜率走一步逐步向最低点靠近。在机器学习中基于基本的梯度下降法发展了两种梯度下降方法分别为随机梯度下降法和批量梯度下降法。 那么具体到一元线性回归的代价函数我们如何使用梯度下降呢
3.3.2 利用梯度下降求解线性回归
接下来我们让梯度下降与线性回归相结合关键在于对代价函数求偏导
其主要思想如下 其中是学习率learning rate它决定了我们沿着能让代价函数下降程度最大的方向 向下迈出的步子有多大在批量梯度下降中我们每一次都同时让所有的参数减去学习速率乘以代价函数的导数。 偏导 ( φ φ θ j J ( θ ) ) (\frac{\varphi }{\varphi \theta _{j}}J(\theta )) (φθjφJ(θ))的目的是为了确定下山的方向 当偏导大于0或小于0时代表了函数的不同增长趋势与导数的意义相同 每走一步每一次迭代我们都需要确定新的参数因为只有更新了参数才能确定下一步的方向。 每走一步都计算其梯度经过不断的迭代最终就可以找到最小值了。
公式的推导 这样我们就可以通过迭代更快的找到最小值了