当前位置: 首页 > news >正文

合肥建设网络网站网站邯郸建网站公司

合肥建设网络网站网站,邯郸建网站公司,如何用ps做网站首页的图片,深圳网站建设学习一. 访问模型参数 对于使用Sequential类构造的神经网络#xff0c;我们可以通过方括号[]来访问网络的任一层。回忆一下上一节中提到的Sequential类与Block类的继承关系。 对于Sequential实例中含模型参数的层#xff0c;我们可以通过Block类的params属性来访问该层包含的所有…一. 访问模型参数 对于使用Sequential类构造的神经网络我们可以通过方括号[]来访问网络的任一层。回忆一下上一节中提到的Sequential类与Block类的继承关系。 对于Sequential实例中含模型参数的层我们可以通过Block类的params属性来访问该层包含的所有参数。 下面访问多层感知机net中隐藏层的所有参数。索引0表示隐藏层为Sequential实例最先添加的层。 net[0].params, type(net[0].params)可以看到我们得到了一个由参数名称映射到参数实例的字典类型为ParameterDict类。其中权重参数的名称为dense0_weight它由net[0]的名称dense0_和自己的变量名weight组成。而且可以看到该参数的形状为(256, 20)且数据类型为32位浮点数float32。为了访问特定参数我们既可以通过名字来访问字典里的元素也可以直接使用它的变量名。下面两种方法是等价的但通常后者的代码可读性更好。 net[0].params[dense0_weight], net[0].weightGluon里参数类型为Parameter类它包含参数和梯度的数值可以分别通过data函数和grad函数来访问。因为我们随机初始化了权重所以权重参数是一个由随机数组成的形状为(256, 20)的NDArray。 net[0].weight.data()权重梯度 net[0].weight.grad()输出层的偏差值。 net[1].bias.data()最后我们可以使用collect_params函数来获取net变量所有嵌套例如通过add函数嵌套的层所包含的所有参数。它返回的同样是一个由参数名称到参数实例的字典。 net.collect_params()二. 初始化模型参数 权重参数元素为[-0.07, 0.07]之间均匀分布的随机数偏差参数则全为0。但我们经常需要使用其他方法来初始化权重。MXNet的init模块里提供了多种预设的初始化方法。在下面的例子中我们将权重参数初始化成均值为0、标准差为0.01的正态分布随机数并依然将偏差参数清零。 # 非首次对模型初始化需要指定force_reinit为真 net.initialize(initinit.Normal(sigma0.01), force_reinitTrue) net[0].weight.data()[0]下面使用常数来初始化权重参数。 net.initialize(initinit.Constant(1), force_reinitTrue) net[0].weight.data()[0]如果只想对某个特定参数进行初始化我们可以调用Parameter类的initialize函数它与Block类提供的initialize函数的使用方法一致。下例中我们对隐藏层的权重使用Xavier随机初始化方法。 net[0].weight.initialize(initinit.Xavier(), force_reinitTrue) net[0].weight.data()[0]三. 共享模型参数 在有些情况下我们希望在多个层之间共享模型参数。“模型构造”一节介绍了如何在Block类的forward函数里多次调用同一个层来计算。这里再介绍另外一种方法它在构造层的时候指定使用特定的参数。如果不同层使用同一份参数那么它们在前向计算和反向传播时都会共享相同的参数。在下面的例子里我们让模型的第二隐藏层shared变量和第三隐藏层共享模型参数。 net nn.Sequential() shared nn.Dense(8, activationrelu) net.add(nn.Dense(8, activationrelu),shared,nn.Dense(8, activationrelu, paramsshared.params),nn.Dense(10)) net.initialize()X nd.random.uniform(shape(2, 20)) net(X)net[1].weight.data()[0] net[2].weight.data()[0]我们在构造第三隐藏层时通过params来指定它使用第二隐藏层的参数。因为模型参数里包含了梯度所以在反向传播计算时第二隐藏层和第三隐藏层的梯度都会被累加在shared.params.grad()里。
http://www.pierceye.com/news/310151/

相关文章:

  • 网站百度一直没有收录热狗网站关键词优化
  • 视频网站开发价格本地app开发公司电话
  • 网站设计风格介绍北京市建设工程信息网如何登录
  • 怎么创建一个属于自己的网站怎么制作做网站
  • 大学加强网站建设与管理的通知莱芜金点子租房信息港
  • 网站的营销与推广杭州五旋科技网站建设怎么样
  • 莱芜四中网站如何优化网站目录结构
  • 深圳公司网站设计哪家好北京装修公司十大排名
  • 如何制作一个好网站做国际网站找阿里
  • 南京制作网站wordpress网站源码上传
  • 做装修效果图的网站有哪些软件泉州营销型网站设计
  • 让路由器做网站服务器一级建造师价格最新行情
  • 白沟做网站wordpress批量编辑
  • 网站充值支付宝收款怎么做天元建设集团有限公司第七建筑工程公司
  • 定制家具网站源代码海口本地网站
  • 公司网站建设平台公司做网站开发流程
  • wordpress网站怎么打开很慢劳务派遣和外包一样吗
  • cms怎么搭建网站做装修的网站怎么做好
  • 个人网站建站的流程做网站一定要会ps么
  • 网站的数据运营怎么做国外做贸易网站
  • 网站全站开发需要学什么怎么样免费给网站做优化
  • 做的好的学校网站简单公司网页设计
  • 宿迁网站建设公司排名电子政务门户网站建设项目招标采购
  • 建立校园网站广告设计与制作需要学什么专业
  • 汽车案例网站百度云网站备案流程
  • 生产建设兵团第三师政务网站搜索引擎有哪些种类
  • 制作网站公司图片山东省建设工程质量监督总站网站
  • 物流网站模板免费长沙推广型网站建设
  • 电商网站策划做网站知乎
  • 彩票网站开发是否合法网站开发中遇到的主要问题