只做特卖的网站,重庆专业的网站建设公司哪家好,解决wordpress注册,陇西学做网站#x1f4e2;前言
上个月小贾消失了一段时间#xff0c;原因就是。。。 写论文去啦#xff01;#xff01;#xff01;
先拿我导的认可镇个楼#xff1a; 本篇文章将分享我个人从迷茫地找方向→苦苦做了48次实验才高效涨点→写论文到头秃等等一系列真实经历#xff0c…前言
上个月小贾消失了一段时间原因就是。。。 写论文去啦
先拿我导的认可镇个楼 本篇文章将分享我个人从迷茫地找方向→苦苦做了48次实验才高效涨点→写论文到头秃等等一系列真实经历希望大家避免踩坑。
其实论文交稿有大半个月了本来准备论文中了之后再总结但是外审时间比我想象中长我怕自己忘记一些细节所以先记录着~
本文纯手敲上万字全是干货建议先点【收藏】再慢慢阅读噢~ PS 1本篇适用于深度学习/计算机视觉/目标检测领域。 2本篇只是我个人经验分享适合纯小白看。手握多篇paper或者sci大牛就不要浪费时间了当然非常欢迎有经验的大佬指正不足或者评论区分享经验我们将不胜感激❤️ 3本篇文章截图的一些论文都是我在学习过程中读到非常优秀的佳作仅供学习分享使用如有侵权请联系我立删。 来吧上车 目录
前言
一、如何找论文方向
☀️1.1 跟导师方向
☀️1.2 自己选择方向
☀️1.3 阅读相关论文
1顶会
2顶刊
3中文核心
二、如何做实验
2.1 实验平台
2.2 数据集处理
2.3 Backbone特征提取的替换
2.4 Neck特征融合的更换
2.5 添加注意力机制
1增加注意力机制不增反降问题
2注意力机制的选取问题
3注意力机制的位置问题
1.首先加在Backbone部分
2.SPPF池化层前后问题
3.如果要加在Neck部分
4注意力机制数量问题
2.6 改进IoU
2.7 改进NMS和激活函数
2.8 优化参数
三、如何写论文
⭐3.1 Abstract—摘要
⭐3.2 Introduction—引言
⭐3.3 Related Work—相关工作
⭐3.4 Method—方法
⭐3.5 Experiments—实验
✨1实验设置Experimental Setting/Experimental Setup/Implementation details
✨2对比实验Comprason with previous method/ Comprason with other method/ Comprason with prior work
✨3消融实验Ablation Study
✨4可视化分析
✨实验美化工具
⭐3.6 Conclusion—结论
写在后面 一、如何找论文方向
找到一个有价值的研究方向这篇论文就已经成功了一半。
☀️1.1 跟导师方向
首先要和导师沟通了解导师目前有什么项目或者未来几年的研究方向是什么充分考虑导师同一方向的好处在于你之后的研究可以得到一定的有价值指导如果方向不一样导师最后也只能给你论文格式上的指导或者其他的技巧了。
所以建议大家先面对面和导师沟通一波再确定自己的论文方向。 ☀️1.2 自己选择方向
如果导师让你自己选方向放养型或者导师的方向你不感兴趣那么就要自己找方向了。
那么如何自己找呢
就拿我自己的CV领域中的目标检测举个栗子。
按照现在流行的写法首先要提出一个具体场景然后针对该场景解决实际问题。
场景又多又杂我刚开始也是无从下手故拜托师兄 嗯嗯。。。
想想。。。
然后就没有后续了。 。。 后来我自己去看各种论文慢慢找到了idea
我们先看看下面几篇 雾霾天气下的 行人车辆检测 城市道路场景下的 货车检测 田间复杂环境下的 黄花菜识别 红外场景下的 车辆检测 对于场景的选择 不要太烂大街可以选择偏冷门的但一定要具有实际意义。
对于检测对象的选择数据集
建议使用公共数据集一是认可度高二是方便进行的对比实验三是容易获取 。
PS
有一个小思路那就是根据自己学院特色来写。比如xx农业大学的就可以做花果蔬菜的检测xx交通大学的可以做车辆、交通指示牌的检测xx海洋大学可以做海底生物检测xx医科大学可以做医学图像的识别更多的是分割等等。 总结一下就是 自己感兴趣有实际意义资源容易获取没那么烂大街 ☀️1.3 阅读相关论文
确定了大致方向之后我们就要重点看对应领域的论文。看得多了你就能发现大家都在研究什么用了哪些涨点的tricks有哪些需要继续研究的地方再根据你的数据集制定研究方案。
分享一些论文查找的链接
1顶会
序号简称全称简介网址1 ICCV IEEE International Conference on Computer Vision国际计算机视觉大会由IEEE主办。是计算机视觉三大会议最高级别Accueil - International Conference on Computer Vision - October 2-6, 2023 - Paris - France - ICCV2023 (thecvf.com)2 ECCV European Conference on Computer Vision欧洲计算机视觉国际会议。是计算机视觉三大会议之一每两年召开一次与ICCV正好错开。首页 |ECCV 2022 (ecva.net)3 CVPR IEEE Conference on Computer Vision and Pattern RecognitionIEEE国际计算机视觉与模式识别会议。该会议一般在6月举行举办地是美国是一个一年一次的会议。The Computer Vision Foundation – A non-profit organization that fosters and supports research in all aspects of computer vision (thecvf.com)
2顶刊
序号简称全称出版社网址1TPAMIPattern Analysis and Machine Intelligence, IEEE Transactions on IEEE IEEEIEEE Transactions on Pattern Analysis and Machine Intelligence / IEEE Xplore2TIPImage Processing, IEEE Transactions onIEEEIEEE Transactions on Image Processing / IEEE Xplore3IJCVInternational Journal of Computer VisionSpringerInternational Journal of Computer Vision / Home4TMMMultimedia, IEEE Transactions onIEEEIEEE Transactions on Multimedia / IEEE Xplore5PRPattern RecognitionrElseviePattern Recognition - Journal - Elsevier6TCSVTTransactions on Circuits and Systems for Video TechnologyIEEEIEEE Transactions on Circuits and Systems for Video Technology
3中文核心
序号名称网址1计算机学报http://cjc.ict.ac.cn/2软件学报http://www.jos.org.cn/jos/home3自动化学报http://www.aas.net.cn/4计算机研究与发展https://crad.ict.ac.cn/CN/1000-1239/home.shtml5计算机辅助设计与图形学报https://www.jcad.cn/jcadcms/show.action?codepublish_402880124b351f94014b3546c556000esiteid1000006中国图像图形学报http://www.cjig.cn/jig/ch/index.aspx 更多可以看2022年最新计算机视觉领域论文查找链接总结—最近五年直链论文建议收藏 读论文的时候要注意不是非要每篇论文都要将内容都阅读完这样太浪费时间了。重点看一看目录、摘要还有实验部分就可以快速了解到这篇论文主要干了什么还有什么可以研究的方向这样你一天能看非常多的论文看得多了自然就会知道自己喜欢什么方向该怎么去做下一步研究别着急~❤️
PS
除了顶会顶刊我们还可以重点看看硕博的毕业论文一般在结论之后都有展望这些展望有时候就是现成的创新点和研究方向。 二、如何做实验
不知道大家一开始有没有一种这样的感觉
CSDN上有很多大佬迪菲赫尔曼、芒果汁没有芒果、魔鬼面具、一休哥※、加勒比海带66等等感谢我的网络导师们❤️提供了很多改进方法那么我随便挑几个不错的组合一下不就行了so easy(*▽*)ブ
一开始我也是这么想的挑几个最新的非常自信地将思路跟我导师阐述。︶
我导师直接一句话“你实验了吗出结果了再汇报。”.
我又马不停蹄回去做实验。ㄟ( ▔, ▔ )ㄏ
搭建完模型没报错OK能跑通nice接下来就是见证奇迹的时刻啦(︶)↗ 当时还很兴奋地跟同门炫耀 然后。。。很快被打脸——不增反降┗|O′|┛ 嗷~~w(Д)w
我就想一定是加的不够多不够新。へ
于是我就使劲加玩命加加加加(▼へ▼メ)
结果就是越来越低。。。┗( T﹏T )┛
后来突然想到一个问题
一个浑身戴着金银首饰、浓妆艳抹、穿得雍容华贵的女生远远不如白T牛仔裤扎着马尾素面朝天的少女更得人心。 图片源自《甄嬛传》如有侵权立删 不停地加改进方法反而会适得其反。
我开始一边实验一边摸索规律总共进行了48次实验才终于得到我想要的涨点效果\^o^/
接下来分享我实验中踩坑经历~ 2.1 实验平台
如果实验室没有足够强的设备建议大家还是租服务器训练。
不要用自己的笔记本去硬扛耗时间而且效果不好出现意外又一切重来别问我咋知道的。 租服务器的方法看我这篇就好→手把手教你使用AutoDL云服务器训练yolov5模型-CSDN博客 这里不再过多阐述~ 2.2 数据集处理
现在很多论文都用到这点也是我导师提出让我加的创新点。
因为我们做的是特殊的场景一些公共数据集并不是所有图片都符合另外还有一部分图像质量不高所以要做一定的筛选。筛选一波过后数据集的数量可能就不是很够量了那么就可以通过数据增强来扩充样本。 数据增强方法可以看我的这篇→ YOLO数据集实现数据增强的方法裁剪、平移 、旋转、改变亮度、加噪声等 另外还可以选取多个数据集将模型在每个数据集上都跑一遍这样也可以成为一组对比实验更有说服力。 2.3 Backbone特征提取的替换
主干网络是模型的核心影响着模型的速度和精度。
目前主干网络可以分为三类
传统CNNVGG-16、ResNet-50、DenseNet等等轻量级CNNMobileNet、EfficientNet、ShuffleNet、GhostNet等等ViT系列Swin Transformer、Repvit、MobileViT等等
传统的CNN网络精度高但参数量巨大计算慢如果场景对精度要求非常高且不用管速度可以使用
轻量级CNN参数量小速度提升非常多但是精度下降也很多
ViT系列参数量也很大建议大家如果选择ViT系列作为主干网络选择轻量级的如MobileViT。
具体怎么选取要根据自己实际场景和数据集的需要。
总的来说对于现在的趋势主干网络的选取规则
使主干网络在提取特征时能够获取更多的有用信息尽量保持精度的前提下避免过度地使用轻量化骨干网络而导致精度的损失。 本人主干网络替换系列 YOLOv5改进系列5——替换主干网络之 MobileNetV3 YOLOv5改进系列6——替换主干网络之 ShuffleNetV2 YOLOv5改进系列9——替换主干网络之EfficientNetv2 YOLOv5改进系列10——替换主干网络之GhostNet YOLOv5改进系列19——替换主干网络之Swin TransformerV1参数量更小的ViT模型 YOLOv5改进系列21——替换主干网络之RepViT清华 ICCV 2023|最新开源移动端ViT YOLOv5改进系列22——替换主干网络之MobileViTv1一种轻量级的、通用的移动设备 ViT YOLOv5改进系列23——替换主干网络之MobileViTv2移动视觉 Transformer 的高效可分离自注意力机制 YOLOv5改进系列24——替换主干网络之MobileViTv3移动端轻量化网络的进一步升级 2.4 Neck特征融合的更换
在YOLO中Neck端主要负责融合不同层级的特征图并提供更高层次的语义信息。
在YOLOv5s原模型中使用经典的FPNPAN自上而下和自下而上相结合的特征金字塔网络然而这种网络会削弱了非相邻提取层的融合效果导致特征信息的丢失或退化。
因此在实验时我们常常会更换Neck端。常用的有
BiFPN加权双向特征金字塔。加强特征图的底层信息使不同尺度的特征图进行信息融合从而加强特征信息。AFPN渐进特征金字塔。以渐进的方式将低层特征与高层特征的语义信息和详细信息直接相互融合避免了多级传输中的信息丢失或退化提高特征尺度的不变性。适用于提高小目标的漏检率。CARAFE轻量级通用上采样算子。具有感受野大、内容感知、轻量级、计算速度快的特点。适用于移动设备检测任务。EVC中心化特征金字塔。关注不同层之间的特征交互还考虑了同一层内的特征调节。适用于密集预测任务。增加小目标层参考多尺度特征图的特征信息同时兼顾了较强的语义特征和位置特征。适用于小目标较多的数据集。 本人Neck端更换系列 YOLOv5改进系列12——更换Neck之BiFPN YOLOv5改进系列15——增加小目标检测层 YOLOv5改进系列18——更换Neck之AFPN全新渐进特征金字塔|超越PAFPN|实测涨点 2.5 添加注意力机制
注意力机制是块宝现在绝大部分论文里改进模型都添加注意力机制。 不了解注意力机制的可以先看看这篇→【Transformer系列2】注意力机制、自注意力机制、多头注意力机制、通道注意力机制、空间注意力机制超详细讲解_注意力机制和自注意力机制的区别 BUT
“增加注意力机制一定涨点吗”
“那么多注意力机制我该选哪个”
“注意力机制要添加到哪个位置 ”
“注意力机制是加的越多越好吗”
这些是我文章评论区最常见的问题今天谈谈我个人理解不对请指正
1增加注意力机制不增反降问题
YOLO算法旨在通过全局特征来预测边界框和分类结果而不是依赖于局部特征。再一个YOLO算法本身已经足够强可以应对目标检测任务。
注意力机制是让模型更加关注一张图像中某个区域更细节特征所以对于YOLO算法来说可能还不如不加。但是对于一些其他任务例如图像分割或者更细粒度的分类问题注意力机制可能会表现出更好的效果。
另外引入注意力机制也会增加模型参数量可能会导致训练和推理过程变得更加慢。
除此之外加入注意力机制不增反降还有可能是以下原因
1数据集过小300张以内的就不要加了
2添加位置不对
3数据集和选用的注意力机制相克比如小目标不适用加CBAM
4过拟合和欠拟合 2注意力机制的选取问题
这个问题就像我每次吃自助一样五花八门的美味盛宴光是看也看不出那个最好吃得尝一尝才知道。有可能今天想吃个甜口觉得小蛋糕最好吃但明天可能就想吃炸串红烧肉了后天可能觉得海鲜才是自助之王。。。一抬头到吃午饭点了(★ ω ★)。 咱先继续唠怕我回来灵感没了废寝忘食ing。。。
所以总结就是注意力机制没有谁好谁坏只是看哪个更适合你自己的数据集你需要亲自尝试。
常见注意力机制
SE在通道维度增加注意力机制关键操作是squeeze和excitation。CBAM由通道注意力机制channel和 空间注意力机制spatial组成。CA通过精确的位置信息对通道关系和长期依赖性进行编码具体操作分为Coordinate信息嵌入和Coordinate Attention生成 2个步骤。ECA通道注意力机制的一种实现形式是基于SE的扩展。SimAM一种无参数注意力模块只使用了一个全局池化层和几个全连接层。SOCA可训练二阶注意力模块通过使用二阶特征统计来自适应地重新调整信道方向特征以获得更具鉴别性的表示。EMA高效多尺度注意力模块通过新的跨空间学习方法融合两个并行子网络的输出特征图设计了一个多尺度并行子网络来建立短和长依赖关系。 3注意力机制的位置问题
1.首先加在Backbone部分
也就是要加在特征提取那里。因为Neck端的作用是对特征进行融合Head是基于特征进行预测。在这两个阶段特征已经提取完毕如果我们这个图像本身提取的特征就不太好那么在这后面两个阶段再努力也始终有一定的局限。基础不牢地动山摇。
所以注意力机制通常加在Backbone部分这样才能提取到更好的特征提升上限。
2.SPPF池化层前后问题
像我最初的几篇SE、CBAM、ECA等是加在SPPF上一层的。
首先是作者实验用ResNet源码就是放在这个位置上的。
再一个就拿CBAM举例它包括空间和通道注意力这两个主要都是利用全局平均池化将feature map的特征抽象到一系列点注意力权重然后建立这些权重的联系并附加到原空间或通道特征上。如果加在后面就会引起过拟合了。
其实这些通道注意力都不适合加在靠近输入端或者靠近head层的地方这样反而会降点最近研究ViT发现self-attention也差不多。
空间注意力放在网络前面通道注意力放在后面。
3.如果要加在Neck部分
Neck可以根据数据集的特征加在大中小三层具体看你的更需要注意力机制关注哪个层特征。 emmm你们看晕了没
其实我觉得吧这些理论知识是我个人理解大佬经验分享整合的大家了解个大概就行它不是百分百正确的定理有可能同一个模块别人加这个位置好使你加就降点。所以啊还是需要大家自己做实验滴~这就是为啥我实验了48次orz 4注意力机制数量问题
通过上面安小鸟的例子大家应该也明白这玩意儿再好也不是越多越好。
先不说随意加反而影响全局效果别忘了注意力机制也是有参数的引进过多会导致模型复杂、计算量大。
另外我还真有一个朋友这么试了审核人的意见是“存在技术方案以复杂结构实现简单功能、采用常规或简单特征进行组合或堆叠等明显不符合技术改进常理的行为”。 注意力机制这块真的特有意思等我以后研究研究有啥新发现了再来补充。\(ω)/ 本人添加注意力机制系列 YOLOv5改进系列1——添加SE注意力机制 YOLOv5改进系列2——添加CBAM注意力机制 YOLOv5改进系列3——添加CA注意力机制 YOLOv5改进系列4——添加ECA注意力机制 YOLOv5改进系列7——添加SimAM注意力机制 YOLOv5改进系列16——添加EMA注意力机制ICASSP2023|实测涨点 2.6 改进IoU
大家先看看IoU介绍我先去吃个饭~ IoU详解→损失函数IoU、GIoU、DIoU、CIoU、EIoU、alpha IoU、SIoU、WIoU超详细精讲及Pytorch实现 其实每个的特点文章介绍的很清楚了我也没有做过多实验总结一下还是亲自试一试。 本人改进IoU系列 YOLOv5改进系列11——添加损失函数之EIoU、AlphaIoU、SIoU、WIoU YOLOv5改进系列17——更换IoU之MPDIoUELSEVIER 2023|超越WIoU、EIoU等|实测涨点 2.7 改进NMS和激活函数
因为我的实验没涉及这两块所以这里先留个坑以后有经验了再来填。
想尝试的同学可以看我之前教程 本人改进激活函数教程 YOLOv5改进系列13——更换激活函数之SiLUReLUELUHardswishMishSoftplusAconC系列等 本人改进NMS教程 YOLOv5改进系列14——更换NMS非极大抑制之 DIoU-NMS、CIoU-NMS、EIoU-NMS、GIoU-NMS 、SIoU-NMS、Soft-NMS 2.8 优化参数
作为一个炼丹师我本来想尝试一下调参无奈高估了自己。
这本来就是玄学中的玄学干嘛为难我这个小白o(TヘTo)
哈哈开玩笑其实到这时我的实验已经成了于是调参这块没有过多研究和大家分享一些大佬们的文章吧希望有帮助呀~ YOLOv8超参数调优教程 使用Ray Tune进行高效的超参数调优_迪菲赫尔曼的博客-CSDN博客 深度学习调参技巧总结_RyanC3的博客-CSDN博客 总结一下没有trick可以绝对涨点实验必须根据自己的数据集亲自做不增反降是常态每一次尝试总结加进一步摸索慢慢地就有经验了祝大家都能高效涨点❤️ 三、如何写论文
很多时候实验好不容易做出来了但是论文却迟迟无法下笔说的是不是你
反正不是我傲娇脸.jpg)
也许是我一直做论文带读博主的原因刚开始写论文的时候要写哪几部分每部分怎么写整个框架清晰地出现在我脑海里。网上大部分论文带读只讲网络结构省略摘要、引言等等后来想想我立志要做全网最详细的博主所以每次全篇逐段讲解。轮到我自己写的时候就自然而然有思路了。
在学习的道路上每一份付出都有回报也许现在看不到任何成果但在你今后的人生里它会像一个礼物一样突然出现也许这就是努力的意义吧❤️
鸡汤结束我们言归正传~ ⭐3.1 Abstract—摘要
论文摘要就是整篇文章和浓缩预览它被排放在论文的首要位置也是审稿人首先看的地方。
公式研究的目的和重要性研究的方法得到的研究结果结论
⚡️At
摘要是一整段不要在摘要里出现感情色彩的评价一般在200-300字左右具体看期刊 ⭐3.2 Introduction—引言
引言的作用就是系统性地向读者介绍该篇论文的研究背景、创新点、采用理论及方法等核心是吸引读者阅读通常是对于全文内容的高度概括
公式背景和需求介绍之前研究方法 前人研究并指出不足本文的贡献
① 背景和需求先写为什么要研究这个领域介绍人们对大的领域、行业、学科等背景问题有何期待说明实现这些期待对背景问题的重要性。通常采用的是一般现在时、现在完成时或现在进行时。
② 介绍之前研究方法其次介绍这个领域的常见研究方法并且一步步缩小这个领域的范围一直到自己的那个层次。具体文献综述部分通常采用一般过去时其他高度概括部分或常识介绍部分通常采用一般现在时或现在完成时。
③ 前人研究并指出不足第三就是写之前大佬在该领域怎么研究的也就是研究现状并且说明存在什么问题没有解决自己解决了。通常采用的是一般过去时或现在完成时。
④ 本文的贡献最后引出自己的东西说明自己解决了什么问题作出了什么贡献论文余下部分是如何安排的。通常采用的是一般现在时。
可以想象一个镜头由远慢慢拉近到你眼前的感觉。 ⚡️At
避免背景介绍遗漏提到的关键信息都要有说明详略得当避免段与段之间逻辑混乱引用文献要是最新的 ⭐3.3 Related Work—相关工作
相关工作时详细地写和自己最相关的研究但不是一味地说之前的工作做了什么主要说清楚我们提出的算法和之前算法有何不同为接下来讲故事做铺垫。
就那最新带读的MobileViT v3 举栗子
它就是先将ViT再介绍CNN最后介绍近来两者混合的一些研究。 ⚡️At
不要罗列论文而是从一个整体上介绍其思想可以展开这些论文思路上的差异。可以依据相关性递进式分类地介绍相关工作或者总分形式。对于每类工作都要点出其主要共性问题以及本文所提出的对应解决方案。前期的调研要充分并且做的过程中也要关注最新的文章做到一半发现idea撞车了就比较麻烦了。如果是技术类的相关工作一定要体现为了把该技术应用到本领域所做出的改进而不能是仅仅将该技术迁移到本领域具体看你咋讲故事了。 ⭐3.4 Method—方法
不同方向的Method写法不同这里仅对深度学习的论文写作介绍
Method这一部分是记录你的研究基础和研究方法就是非常详细的介绍你的创新点。一般采用总—分形式先画出你搭建的模型然后总体介绍接下来再逐一介绍创新点。
总单独一段介绍你的搭建模型用到了哪些方法概括地介绍就行。然后画出模型的总体网络结构图我导是建议再加上方法流程图。
分接下来就是分小节逐一、详细地介绍每个方法创新点。首先介绍前置的知识、算法结构、流程可以用伪代码表示、公式、网络结构图、为什么这么设计等等没有绝对的格式最终的目的是为了说清楚算法的设计思路让别人能够看懂。
⚡️At
方法介绍大家可以先去读原论文了解前置知识然后扒源代码了解网络结构和算法流程最后自己就很清楚了。不知道该怎么总结可以看看同样使用这个方法的论文搜关键字就能找到只看这一块就行学学大佬是如何介绍的。写法上可以去网上找现成的英文模板表达更为高级。 ⭐3.5 Experiments—实验
不同方向的Experiments写法不同这里仅对深度学习的论文写作介绍
实验这一块用我导的话来说就是“其实你啥都做好了只要把它们描述出来就行。”
在实验写作之前先确保我们基本上把论文的实验数据全都整理出来了这样我们就可以根据现有的实验结果直接来描述实验结果就行~
实验基本三个部分实验设置Experimental Setting/Experimental Setup/Implementation details、对比实验Comprason with previous method/ Comprason with other method/ Comprason with prior work、消融实验Ablation Study
✨1实验设置Experimental Setting/Experimental Setup/Implementation details
实验配置实验参数实验数据集 ✨2对比实验Comprason with previous method/ Comprason with other method/ Comprason with prior work
按任务分
图像分类Image Classification目标检测Object Detection实例分割Semantic Segmentation
需要做哪些对比Comparison with...
1.不同模型的对比
以YOLOv8举栗子
首先和同YOLO系列对比YOLOv5/v6/v7v4以下就没必要了然后和其他深度学习模型RCNN系列、SSD、RT-DETR等等YOLOv8 的代码库目前是可以训练 YOLOv5/v6/v8和 RT-DETR 的直接换个 yaml 就训练了以及两三个前人的实验。
放几篇优秀论文大家可以感受一下 对比不同算法 引用前人文献 对比多个尺寸 2.方法对比
这部分要和前面Method方法做一个呼应目的就是证明你选择的方法是有效的。
举个栗子你选择了CA注意力机制就可以和CBAM、SE、SOCA等等做个对比。
还是看几篇优秀论文 ⚡️At
个人感觉这部分就是夸各种吹你的方法如何好、如何创新等等如果你的论文的结果是state-of-the-art那么你就可以把标题取为 Comprason with state-of-the-art ✨3消融实验Ablation Study
这部分是对你改进的各个模块进行具体的分析目的是验证每个模块的有效性。
在深度学习中特别是复杂的深度神经网络的背景下通常采用“消融实验”来描述去除网络的某些部分的过程以便更好地理解网络的行为。
举个栗子
为了提升网络的性能在网络架构上加了模块AB两个方法是这篇文章的创新点。 比如说这篇文章有3个亮点消融实验就负责告诉你
实验1我只加A结果如何实验2只加B结果如何实验3A和B都加了又如何。
看3个实验的效果然后结果可能是实验1和实验2的结果都不如实验3那么说明A、B都是有用的。
然而也有可能你会发现实验1的结果和实验3一样甚至更好。这就说明你搭建的模型是有问题的模块B其实并没有起到作用提升只来自于模块A。
话不多说直接看论文吧 ✨4可视化分析
为了更直观的说明提升效果我们可以直接放上可视化对比图 ✨实验美化工具
在实验中我们还可以通过一些工具展示实验效果这样论文也显得更高级。 比如注意力机制对比可以加上热力图→[论文必备]梯度加权的类激活热力图Grad-CAM可视化以及踩坑经历分享 比如损失函数可以通过Origin来画→ [论文必备]最强科研绘图分析工具Origin1——安装教程 [论文必备]最强科研绘图分析工具Origin2——简单使用教程 ⭐3.6 Conclusion—结论
结论这块就比较好写了它是对整个研究结果的概括总结对全部小结果的定性。结论需要突出研究的“亮点”以及“指明方向”。
具体有以下几点
研究结果说明了什么问题及所揭示的原理和规律(理论价值)。在实际应用上的意义和作用(实用价值)。本研究的遗留问题及建议和展望。这点应是必不可少的 好啦基本上到这里一篇论文就大致搞定啦让我们完结撒花✿✿ヽ(°▽°)ノ✿ 写在后面
1再次说明本文仅为小白分享经验适合纯小白看也欢迎大佬指出不足以及评论区分享经验阿里嘎多❤️
2本文会持续更新审稿过程中的经验也欢迎大家分享呀❤️
最后祝大家多发paper天天开心❤️