当前位置: 首页 > news >正文

建立网站要花多少钱招远水利建设工程公司网站

建立网站要花多少钱,招远水利建设工程公司网站,宜春公司做网站,高端网站开发公开课import numpy as np import pandas as pdimport torch as tPyTorch将深度学习中常用的优化方法全部封装在torch.optim中#xff0c;其设计十分灵活#xff0c;能够很方便的扩展成自定义的优化方法。 所有的优化方法都是继承基类optim.Optimizer#xff0c;并实现了自己的优…import numpy as np import pandas as pdimport torch as tPyTorch将深度学习中常用的优化方法全部封装在torch.optim中其设计十分灵活能够很方便的扩展成自定义的优化方法。 所有的优化方法都是继承基类optim.Optimizer并实现了自己的优化步骤。下面就以最基本的优化方法——随机梯度下降法SGD举例说明。这里需重点掌握 优化方法的基本使用方法如何对模型的不同部分设置不同的学习率如何调整学习率 # 定义一个LeNet网络 class Net(t.nn.Module):def __init__(self):super(Net, self).__init__()self.features t.nn.Sequential(t.nn.Conv2d(3, 6, 5),t.nn.ReLU(),t.nn.MaxPool2d(2, 2),t.nn.Conv2d(6, 16, 5),t.nn.ReLU(),t.nn.MaxPool2d(2, 2))self.classifier t.nn.Sequential(t.nn.Linear(16*5*5, 120),t.nn.ReLU(),t.nn.Linear(120, 84),t.nn.ReLU(),t.nn.Linear(84, 10))def forward(self, x):x self.features(x)x x.view(-1, 16*5*5)x self.classifier(x)return xnet Net()optimizer t.optim.SGD(paramsnet.parameters(), lr1) optimizer.zero_grad() # 梯度清零input t.randn(1, 3, 32, 32) output net(input) output.backward(output) optimizer.step() # 执行优化# 为不同子网络设置不同的学习率在finetune中经常用到 # 如果对某个参数不指定学习率就使用最外层的默认学习率 optimizer t.optim.SGD([{params: net.features.parameters()}, # 学习率为1e-5{params: net.classifier.parameters(), lr: 1e-2}], lr1e-5) optimizerSGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 1e-05maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.01maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )# 只为两个全连接层设置较大的学习率其余层的学习率较小 special_layers t.nn.ModuleList([net.classifier[0], net.classifier[3]]) special_layers_params list(map(id, special_layers.parameters())) base_params filter(lambda p: id(p) not in special_layers_params, net.parameters())optimizer t.optim.SGD([{params:base_params},{params:special_layers.parameters(), lr:0.01}], lr0.001) optimizerSGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 0.001maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.01maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )对于如何调整学习率主要有两种做法。一种是修改optimizer.param_groups中对应的学习率另一种是更简单也是较为推荐的做法——新建优化器由于optimizer十分轻量级构建开销很小故而可以构建新的optimizer。但是后者对于使用动量的优化器如Adam会丢失动量等状态信息可能会造成损失函数的收敛出现震荡等情况。 # 方法1: 调整学习率新建一个optimizer old_lr 0.1 optimizer1 t.optim.SGD([{params: net.features.parameters()},{params: net.classifier.parameters(), lr: old_lr*0.1}], lr1e-5) optimizer1SGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 1e-05maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.010000000000000002maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )# 方法2: 调整学习率, 手动decay, 保存动量 for param_group in optimizer.param_groups:param_group[lr] * 0.1 # 学习率为之前的0.1倍 optimizerSGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 0.0001maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.001maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )
http://www.pierceye.com/news/115677/

相关文章:

  • 网站运营与数据分析网站开发学习什么
  • 上海网站备案在哪里查询网站建设哪家稳妥
  • 建设网站做什么赚钱网站制作.
  • 小企业公司网站怎么建做网站英文编辑有前途吗
  • 优化图片传网站wordpress背景图片
  • 网站服务器哪家好些外包做网站不付尾款
  • 建站系统wordpress下载哪个公司的微信商城系统
  • 网站建设app开发合同深圳企业网站制作设计方案
  • 免费网站整站模板下载寻找做网站
  • 做此广告的网站做家纺的网站
  • 湖南畅想网站建设个人网站建设基本定位
  • 建站公司外包钓鱼网站怎么做
  • 个人网站logo需要备案吗鑫灵锐做网站多少钱
  • .xyz做网站怎么样网站产品预算
  • 建网站先要申请网址吗做网站给文件不侵权
  • 一元夺宝网站建设Wordpress 普通图片裁剪
  • 网站推广都有哪些自己有网站怎么优化
  • 宠物交易网站模板更改wordpress后台登录地址
  • 有电脑网站怎样建手机正规网络游戏平台
  • 网站抓取QQ获取系统cms监控手机客户端
  • 郑州网站推广价格优礼品网站模板
  • 百度指数不高的网站怎么优化网站图片类型
  • 北京专业做网站怎么样app软件开发摄像头
  • 网站建设导向erp系统软件免费版
  • 手表网站网站开发毕业设计文献综述
  • 台州网站制作维护关于微网站策划ppt怎么做
  • 网站建设中期目标开发app找那个公司
  • 跨境自建站模板网站内容和功能清单
  • 平面设计找素材的网站电子商务网站建设的步骤一般为(
  • 一个服务器可以备案几个网站凡科门店通怎么样