网站前端是什么意思,特优项目网站建设方案,南宁伯才网络公司做网站好吗,禁止粘贴的网站注#xff1a;书中对代码的讲解并不详细#xff0c;本文对很多细节做了详细注释。另外#xff0c;书上的源代码是在Jupyter Notebook上运行的#xff0c;较为分散#xff0c;本文将代码集中起来#xff0c;并加以完善#xff0c;全部用vscode在python 3.9.18下测试通过。…注书中对代码的讲解并不详细本文对很多细节做了详细注释。另外书上的源代码是在Jupyter Notebook上运行的较为分散本文将代码集中起来并加以完善全部用vscode在python 3.9.18下测试通过。
Chapter4 Multilayer Perceptron
4.5 Weight Decay
前一节我们描述了过拟合的问题本节我们将介绍一些正则化模型的技术。我们总是可以通过去收集更多的训练数据来缓解过拟合但这可能成本很高耗时颇多或者完全超出我们的控制因而在短期内不可能做到。假设我们已经拥有尽可能多的高质量数据我们便可以将重点放在正则化技术上。
在多项式回归的例子中我们可以通过调整拟合多项式的阶数来限制模型的容量。实际上限制特征的数量是缓解过拟合的一种常用技术。然而简单地丢弃特征对这项工作来说可能过于生硬。我们继续思考多项式回归的例子考虑高维输入可能发生的情况。多项式对多变量数据的自然扩展称为单项式monomials也可以说是变量幂的乘积。单项式的阶数是幂的和。例如 x 1 2 x 2 x_1^2 x_2 x12x2和 x 3 x 5 2 x_3 x_5^2 x3x52都是3次单项式。
注意随着阶数 d d d的增长带有阶数 d d d的项数迅速增加。 给定 k k k个变量阶数为 d d d的项的个数为 ( k − 1 d k − 1 ) {k - 1 d} \choose {k - 1} (k−1k−1d)即 C k − 1 d k − 1 ( k − 1 d ) ! ( d ) ! ( k − 1 ) ! C^{k-1}_{k-1d} \frac{(k-1d)!}{(d)!(k-1)!} Ck−1dk−1(d)!(k−1)!(k−1d)!。因此即使是阶数上的微小变化比如从 2 2 2到 3 3 3也会显著增加我们模型的复杂性。仅仅通过简单的限制特征数量在多项式回归中体现为限制阶数可能仍然使模型在过简单和过复杂中徘徊我们需要一个更细粒度的工具来调整函数的复杂性使其达到一个合适的平衡位置。
4.5.1 Norm and Weight Decay
权重衰减是最广泛使用的正则化的技术之一在训练参数化机器学习模型时权重衰减weight decay是最广泛使用的正则化的技术之一它通常也被称为 L 2 L_2 L2正则化。这项技术通过函数与零的距离来衡量函数的复杂度因为在所有函数 f f f中函数 f 0 f 0 f0所有输入都得到值 0 0 0在某种意义上是最简单的。但是我们应该如何精确地测量一个函数和零之间的距离呢没有一个准确的答案。 一种简单的方法是通过线性函数 f ( x ) w ⊤ x f(\mathbf{x}) \mathbf{w}^\top \mathbf{x} f(x)w⊤x中的权重向量的某个范数来度量其复杂性例如 ∥ w ∥ 2 \| \mathbf{w} \|^2 ∥w∥2。要保证权重向量比较小最常用方法是将其范数作为惩罚项加到最小化损失的问题中。将原来的训练目标最小化训练标签上的预测损失调整为最小化预测损失和惩罚项之和。现在如果我们的权重向量增长的太大我们的学习算法可能会更集中于最小化权重范数 ∥ w ∥ 2 \| \mathbf{w} \|^2 ∥w∥2。这正是我们想要的。3.1节的线性回归例子里损失由下式给出 L ( w , b ) 1 n ∑ i 1 n 1 2 ( w ⊤ x ( i ) b − y ( i ) ) 2 . L(\mathbf{w}, b) \frac{1}{n}\sum_{i1}^n \frac{1}{2}\left(\mathbf{w}^\top \mathbf{x}^{(i)} b - y^{(i)}\right)^2. L(w,b)n1i1∑n21(w⊤x(i)b−y(i))2.
为了惩罚权重向量的大小我们必须以某种方式在损失函数中添加 ∥ w ∥ 2 \| \mathbf{w} \|^2 ∥w∥2但是模型应该如何平衡这个新的额外惩罚的损失实际上我们通过正则化常数 λ \lambda λ来描述这种权衡这是一个非负超参数我们使用验证数据拟合 L ( w , b ) λ 2 ∥ w ∥ 2 , L(\mathbf{w}, b) \frac{\lambda}{2} \|\mathbf{w}\|^2, L(w,b)2λ∥w∥2,
对于 λ 0 \lambda 0 λ0我们恢复了原来的损失函数。对于 λ 0 \lambda 0 λ0我们限制 ∥ w ∥ \| \mathbf{w} \| ∥w∥的大小。这里我们仍然除以 2 2 2是因为我们取一个二次函数的导数时 2 2 2和 1 / 2 1/2 1/2会抵消。通过平方 L 2 L_2 L2范数我们去掉平方根留下权重向量每个分量的平方和这使得惩罚的导数很容易计算。 L 2 L_2 L2正则化线性模型构成经典的岭回归ridge regression算法 L 1 L_1 L1正则化线性回归是统计学中类似的基本模型通常被称为套索回归lasso regression。我们通常使用 L 2 L_2 L2范数的一个原因是它对权重向量的大分量施加了巨大的惩罚。这使得我们的学习算法偏向于在大量特征上均匀分布权重的模型。在实践中这可能使它们对单个变量中的观测误差更为稳定。相比之下 L 1 L_1 L1惩罚会导致模型将权重集中在一小部分特征上而将其他权重清除为零。这称为特征选择feature selection这可能是其他场景下需要的。 L 2 L_2 L2正则化回归的小批量随机梯度下降更新如下式 w ← ( 1 − η λ ) w − η ∣ B ∣ ∑ i ∈ B x ( i ) ( w ⊤ x ( i ) b − y ( i ) ) . \begin{aligned} \mathbf{w} \leftarrow \left(1- \eta\lambda \right) \mathbf{w} - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \mathbf{x}^{(i)} \left(\mathbf{w}^\top \mathbf{x}^{(i)} b - y^{(i)}\right). \end{aligned} w←(1−ηλ)w−∣B∣ηi∈B∑x(i)(w⊤x(i)b−y(i)).
根据之前章节所讲的我们根据估计值与观测值之间的差异来更新 w \mathbf{w} w。然而我们同时也在试图将 w \mathbf{w} w的大小缩小到零。这就是为什么这种方法有时被称为权重衰减。我们仅考虑惩罚项优化算法在训练的每一步衰减权重。与特征选择相比权重衰减为我们提供了一种连续的机制来调整函数的复杂度。较小的 λ \lambda λ值对应较少约束的 w \mathbf{w} w而较大的 λ \lambda λ值对 w \mathbf{w} w的约束更大。是否对相应的偏置 b 2 b^2 b2进行惩罚在不同的实践中会有所不同在神经网络的不同层中也会有所不同。通常网络输出层的偏置项不会被正则化。
4.5.2 High Dimensional Linear Regression
我们通过一个简单的例子来演示权重衰减。首先我们像以前一样生成一些数据生成公式如下 y 0.05 ∑ i 1 d 0.01 x i ϵ where ϵ ∼ N ( 0 , 0.0 1 2 ) . y 0.05 \sum_{i 1}^d 0.01 x_i \epsilon \text{ where } \epsilon \sim \mathcal{N}(0, 0.01^2). y0.05i1∑d0.01xiϵ where ϵ∼N(0,0.012).
我们选择标签是关于输入的线性函数。标签同时被均值为0标准差为0.01高斯噪声破坏。为了使过拟合的效果更加明显我们可以将问题的维数增加到 d 200 d 200 d200并使用一个只包含20个样本的小训练集。
import matplotlib.pyplot as plt
import torch
from d2l import torch as d2l
from torch import nnn_train, n_test, num_inputs, batch_size 20, 100, 200, 5
true_w, true_b torch.ones((num_inputs, 1)) * 0.01, 0.05
train_data d2l.synthetic_data(true_w, true_b, n_train)
train_iter d2l.load_array(train_data, batch_size)
test_data d2l.synthetic_data(true_w, true_b, n_test)
test_iter d2l.load_array(test_data, batch_size, is_trainFalse)#初始化模型参数
def init_params():w torch.normal(0, 1, size(num_inputs, 1), requires_gradTrue)b torch.zeros(1, requires_gradTrue)return [w, b]#定义L2范数惩罚
def l2_penalty(w):return torch.sum(w.pow(2)) / 2#训练
def train(lambd):w, b init_params()net, loss lambda X: d2l.linreg(X, w, b), d2l.squared_lossnum_epochs, lr 100, 0.003animator d2l.Animator(xlabelepochs, ylabelloss, yscalelog,xlim[5, num_epochs], legend[train, test])for epoch in range(num_epochs):for X, y in train_iter:# 增加了L2范数惩罚项# 广播机制使l2_penalty(w)成为一个长度为batch_size的向量l loss(net(X), y) lambd * l2_penalty(w)l.sum().backward()d2l.sgd([w, b], lr, batch_size)if (epoch 1) % 5 0:animator.add(epoch 1, (d2l.evaluate_loss(net, train_iter, loss),d2l.evaluate_loss(net, test_iter, loss)))print(w的L2范数是, torch.norm(w).item())#忽略正则化直接训练
train(lambd0)
plt.show()#使用正则化后进行训练
train(lambd3)
plt.show()#简洁实现
def train_concise(wd):net nn.Sequential(nn.Linear(num_inputs, 1))for param in net.parameters():param.data.normal_()loss nn.MSELoss(reductionnone)num_epochs, lr 100, 0.003# 偏置参数没有衰减trainer torch.optim.SGD([{params:net[0].weight,weight_decay: wd},{params:net[0].bias}], lrlr)animator d2l.Animator(xlabelepochs, ylabelloss, yscalelog,xlim[5, num_epochs], legend[train, test])for epoch in range(num_epochs):for X, y in train_iter:trainer.zero_grad()l loss(net(X), y)l.mean().backward()trainer.step()if (epoch 1) % 5 0:animator.add(epoch 1,(d2l.evaluate_loss(net, train_iter, loss),d2l.evaluate_loss(net, test_iter, loss)))print(w的L2范数, net[0].weight.norm().item())train_concise(0)
train_concise(3)
plt.show()无正则化效果(过拟合):
正则化效果: