当前位置: 首页 > news >正文

网站开发前后端分离在线书店网站怎么做

网站开发前后端分离,在线书店网站怎么做,中咨工程咨询有限公司,网站如何连接微信支付宝吗简介 论文原址#xff1a;1807.06521.pdf (arxiv.org) CBAM#xff08;Convolutional Block Attention Module#xff09;是一种卷积神经网络模块#xff0c;旨在通过引入注意力机制来提升网络的表示能力。CBAM包含两个顺序子模块#xff1a;通道注意力模块和空间注意力…简介 论文原址1807.06521.pdf (arxiv.org) CBAMConvolutional Block Attention Module是一种卷积神经网络模块旨在通过引入注意力机制来提升网络的表示能力。CBAM包含两个顺序子模块通道注意力模块和空间注意力模块。 通过在深度网络的每个卷积块中自适应地优化中间特征图CBAM通过强调通道和空间维度上的有意义特征实现了对关键信息的关注和不必要信息的抑制。研究表明CBAM在ImageNet-1K数据集上能够显著提高各种基线网络的准确性通过grad-CAM可视化验证CBAM增强的网络能够更准确地关注目标对象。在MS COCO和VOC 2007数据集上的目标检测任务中CBAM也展现出显著的性能改进而由于CBAM精心设计为轻量级模块其在大多数情况下几乎没有参数和计算开销。CBAM注意力模块可广泛应用于提升卷积神经网络的表示能力。 Channel attention moduleCAM 通过平均池化和最大池化操作整合输入特征图的空间信息生成两个不同的空间上下文描述符得到两个 1×1×C 的特征图分别表示为 F_c_avg 和 F_c_max。将 F_c_avg 和 F_c_max 分别送入一个共享的多层感知机MLP该 MLP 具有一个隐藏层其中第一层神经元个数为 C/rr 为减少率激活函数为 ReLU第二层神经元个数为 C。这两层神经网络是共享的即它们的权重相同。将两个 MLP 的输出特征进行逐元素相加并通过 sigmoid 激活函数生成通道注意力图 Mc。 这是对池化操作的使用进行实验比较的结果。研究者发现采用平均池化和最大池化并行的方式能够取得更好的效果。可能是因为采用并行连接方式相比于单一的池化能够更有效地保留有用的信息进而提升模型性能。 Spatial attention moduleSAM 首先将 Channel Attention 模块输出的特征图作为 Spatial Attention 模块的输入特征图。接着对输入特征图进行基于通道的全局最大池化和全局平均池化操作得到两个 H×W×1 的特征图。然后将这两个特征图在通道维度上进行拼接经过一个 7×7 的卷积操作将通道数降维为 1即得到 H×W×1 的特征图。最后经过 sigmoid 操作生成空间注意力特征即 Ms。将该特征与输入特征图进行乘法操作得到最终生成的特征。这一过程有助于模型关注输入特征图中的重要区域从而增强表示能力。 CBAM的pytorch实现 Original paper addresshttps: https://arxiv.org/pdf/1807.06521.pdf Time: 2024-02-28import torch from torch import nnclass ChannelAttention(nn.Module):def __init__(self, in_planes, reduction16):super(ChannelAttention, self).__init__()self.avg_pool nn.AdaptiveAvgPool2d(1)self.max_pool nn.AdaptiveMaxPool2d(1)# shared MLPself.mlp nn.Sequential(nn.Conv2d(in_planes, in_planes // reduction, 1, biasFalse),nn.ReLU(inplaceTrue),nn.Conv2d(in_planes // reduction, in_planes, 1, biasFalse))self.sigmoid nn.Sigmoid()def forward(self, x):avg_out self.mlp(self.avg_pool(x))max_out self.mlp(self.max_pool(x))out avg_out max_outreturn self.sigmoid(out)class SpatialAttention(nn.Module):def __init__(self, kernel_size7, padding3):super(SpatialAttention, self).__init__()self.conv1 nn.Conv2d(2, 1, kernel_size, paddingpadding, biasFalse)self.sigmoid nn.Sigmoid()def forward(self, x):avg_out torch.mean(x, dim1, keepdimTrue)max_out, _ torch.max(x, dim1, keepdimTrue)x torch.cat([avg_out, max_out], dim1)x self.conv1(x)return self.sigmoid(x)class CBAM(nn.Module):def __init__(self, in_planes, reduction16, kernel_size7):super(CBAM, self).__init__()self.ca ChannelAttention(in_planes, reduction)self.sa SpatialAttention(kernel_size)def forward(self, x):out x * self.ca(x)result out * self.sa(out)return resultif __name__ __main__:block CBAM(16)input torch.rand(1, 16, 8, 8)output block(input)print(output.shape) 参考文章 CBAM——即插即用的注意力模块附代码_cbam模块-CSDN博客 [ 注意力机制 ] 经典网络模型2——CBAM 详解与复现_cbam代码复现-CSDN博客
http://www.pierceye.com/news/726819/

相关文章:

  • .网站链接策略网页制作手机版
  • 河南网站优化要多少钱网站技术有哪些
  • 域名还在备案可以做网站吗高端设计公司名字大全
  • 简洁的门户网站网站开发文案
  • 信息网站 模板中国建设银行手机银行下载官方网站
  • 番禺网站开发设计小程序后端数据库搭建
  • 丰都集团网站建设云南网站开发公司
  • 赶集网的二级域名网站怎么做海南网站建设报价方案
  • dede做手机网站网站开发小作业
  • 网站建设推广ppt室内设计知名网站
  • asp 网站源码网站搭建好了怎么上到服务器
  • 网站有什么到期wordpress怎么编辑保存
  • 服务器添加网站300500启迪设计
  • 上海市建设安全协会网站移动端页面
  • 手机做网站公司成都住房和城乡建设厅官网
  • 锋创科技园网站建设网站开发ide php
  • 山东做网站的公司有哪些电脑怎么制作视频短片
  • 书画网站 建站维护网站成本
  • 什么事网站开发网站服务器租用报价
  • 做黏土的网站青岛网站建设微动力
  • 建网站权威公司广告发布平台
  • 自助游网站开发分析报告总结怎么注册公司微信公众号
  • 网站开发公司业务员培训黄聪wordpress
  • 网站规划与建设ppt模板下载响应式网站模板费用
  • 江苏商城网站建设服务网站建设优化石家庄
  • 高师院校语言类课程体系改革与建设 教学成果奖申报网站wordpress 4.8.2 漏洞
  • 以小说名字做网站的小说网wordpress的数据库主机
  • 永嘉高端网站建设价格h5页面制作多少钱
  • 北京网站建设课程培训WordPress分类id在哪
  • 宁夏网站备案青岛专业网站建设公司