找网站公司制作网站,烟台企业展厅设计公司,上海都市建筑设计有限公司,北京石景山保洁公司1.训练集
使用Numpy数组存储数据集。
2.打印数组
打印两个数组的形状和数据。
3.初始化w#xff0c;b
为了演示#xff0c;w#xff0c;b预设出接近最优解的值。w是一个一维数组#xff0c;w个数对应特征个数。
4.非向量化计算多元线性回归函数
使用for循环…1.训练集
使用Numpy数组存储数据集。
2.打印数组
打印两个数组的形状和数据。
3.初始化wb
为了演示wb预设出接近最优解的值。w是一个一维数组w个数对应特征个数。
4.非向量化计算多元线性回归函数
使用for循环计算每个w和x的乘积。
5.向量化计算多元线性回归函数
使用Numpy的dot方法一行代码实现每个w和x的乘积。
5.向量化计算多元线性回归的成本函数
每一组训练样本的预测值都使用np.dot()b。
6.计算多元线性回归的成本函数的梯度
第一层循环计算每组训练样本的误差。第二层循环遍历并计算每组训练样本的n个特征。
第二层循环有点绕只需要记住我们要计算多个w有几个特征列就要计算几个w。如果有4个特征列则需要通过公式分别计算并更新w1,w2,w3,w4。dj_dw数组保存的就是这4个w。dj_dw里最终保存的内容是计算一次梯度后w1,w2,w3,w4的值是多少。X[i,j]对应第i行训练样本里的第j个特征。
7.运行梯度下降函数
这里的w是向量化操作w的第一个元素减去α乘以dj_dw的第一个元素然后更新到w的第一个元素。 里面的计算可以形象化为 [w1 - (alpha * dj_dw[0]), w2 - (alpha * dj_dw2[1])…]
8.运行梯度下降
执行梯度下降计算出w,b使用w,b通过训练集计算预测发现与训练集的真实数据误差较大。
9.可视化迭代次数和成本函数
第一张图迭代一开始注意Y轴成本函数的值就迅速降到750以下。 第二张图细化了第一张图的直线部分注意Y轴迭代一开始成本函数696开始缓慢下降下降幅度变小。