北京网站开发培训,本地最新招聘信息,关键词排名优化易下拉教程,南京设计网页公司正则化#xff1a;一般可以通过减少特征或者惩罚不重要特征的权重来缓解过拟合#xff0c;但是我们通常不知道该惩罚那些特征的权重#xff0c;而正则化就是帮助我们惩罚特征权重的#xff0c;即特征的权重也会成为模型的损失函数一部分。可以理解为#xff0c; 为了使用某…正则化一般可以通过减少特征或者惩罚不重要特征的权重来缓解过拟合但是我们通常不知道该惩罚那些特征的权重而正则化就是帮助我们惩罚特征权重的即特征的权重也会成为模型的损失函数一部分。可以理解为 为了使用某个特征我们需要付出loss的代价(loss为给权重weight加的一个loss正则化)除非这个特征非常有效否贼就会被loss上的增加覆盖效果。这样我们就能筛选出最有效的特征减少特征权重防止过拟合。一般来说L1正则会制造稀疏的特征大部分无用特征的权重会被至为0,L2正则会让特征的权重不过大使得特征的权重比较平均。 tensorflow.nn.l2_loss(weight) 就是计算weight的L2 loss。数据增强tf.image.random_flip_left_right(): 照片的随机水平翻转 //这里没写参数列表下同tf.random_crop()从照片中随机剪切一块照片tf.image.random_brightness():设置随机的亮度tf.image.random_contrast():设置随机的对比度tf.image.per_image_whitening():对数据进行标准化(对数据减去均值除去方差保证数据0平均 方差为1)