当前位置: 首页 > news >正文

淄博做网站建设公司wordpress小工具自定义

淄博做网站建设公司,wordpress小工具自定义,wordpress批量删除字段,c 微信小程序开发教程nn.XXX与F.XXX PyTorch中torch.nn**#xff08;以下简写为nn#xff09;中的模块和torch.nn.functional#xff08;以下简写为F#xff09;**中的模块都提供了常用的神经网络操作#xff0c;包括激活函数、损失函数、池化操作等。它们的主要区别如下#xff1a; nn中的…nn.XXX与F.XXX PyTorch中torch.nn**以下简写为nn中的模块和torch.nn.functional以下简写为F**中的模块都提供了常用的神经网络操作包括激活函数、损失函数、池化操作等。它们的主要区别如下 nn中的模块是以类形式存在的F中的模块是以函数形式存在的nn中的模块是nn.Module的子类包含可学习参数、可导在反向传播中可以计算梯度可以在模型中作为子模块使用F中的模块是纯函数没有与之相关联的可学习参数虽然也可以用于反向传播但是其梯度需要手动计算nn中的模块需要实例化后将张量作为实例的调用参数F中的模块直接传递张量作为参数nn中的模块可以管理和访问模块的内部参数和状态F中的函数是纯函数没有与之相关联的参数或状态因此无法直接管理和访问函数的内部状态 nn.Relu与F.relu() 以激活函数ReLu为例在使用激活函数时有以下两种方式可以使用 # 方法一 nn.ReLU() # 方法二 F.relu(input)这两种方法都是使用ReLu激活但使用的场景不一样。 nn.ReLU是一个类必须实例化后才能使用一般在定义网络层的时候使用 # nn.ReLU的常用方法 nn.Sequential(nn.Conv2d(in_channels, out_channels),nn.ReLU(inplaceTrue))F.relu()是函数调用一般使用在foreward()函数中 nn.ReLU只能处理Variable类型的张量而F.relu()可以处理Tensor和Variable类型的张量 nn.ReLU需要额外占用内存用来存储中间结果而F.relu()则是直接在原张量上进行操作不需要额外的内存占用 另外 当用print()打印输出神经网络时会输出nn.ReLU()层而F.relu()是没有输出的
http://www.pierceye.com/news/664297/

相关文章:

  • 用ps做美食网站一个网站多少钱?
  • 网站建设 试题揭阳专业做网站公司
  • 手机上怎么创建自己的网站河南企业网站优化
  • 定陶区城乡和住房建设局网站新手怎么做网站
  • 工商银行与建设银行网站对比石嘴山网站seo
  • seo快速建站自学程序员的步骤
  • 做旅行网站的依据及意义如何制作自己想要的图片
  • 电子商务网站怎么做网站建设企业建站哪家好?来这里看看
  • 网站备案电话号码购物商城网站建设方案
  • 手机商城系统徐州seo计费管理
  • 西安网站公司哪家好信息推广的方式有哪些
  • 网站开发注意的事项商丘网站制作软件
  • 51zwd一起做网站广州广东省网站备案查询
  • 如何生成一个网站自己弄公司网站
  • 企业信用信息查询网官网孝感网站seo
  • 中淼建设工程有限公司网站分类用wordpress
  • 腾讯建设网站首页做销售网站
  • 推广引流网站聚名网注册
  • 原来做网站后来跑国外了多伦多网站建设多少钱
  • 手机建站平台做母婴网站设计思路
  • 免费个人手机网站九八智能建站
  • 中山网站备案如何做购物网站
  • 常见的简单的网站制作建设网站的好公司
  • 邯郸网站制作建设wordpress+怎么迁移
  • 设计创意广告上海企业网站优化
  • 自己做网站需要购买服务器吗WordPress文章相册修改
  • 校园招聘哪个网站做的好学做川菜网站
  • 大足网站建设公司医院网站建设熊掌号
  • 做网站编辑是不是也要做推广做蛋白go分析网站
  • 免费品牌网站制作云南电商网站建设