当前位置: 首页 > news >正文

中国做w7的网站宿迁网站建设价位

中国做w7的网站,宿迁网站建设价位,wordpress 活动管理系统,营销型建设网站实训总结9年后重读深度学习奠基作之一#xff1a;AlexNet【下】【论文精读】这两天偶然间在B站看了李沐博士对AlexNet论文的重新解读#xff0c;收获满满。AlexNet是当今深度学习浪潮奠基作之一#xff0c;发表在2012年。在视频中#xff0c;李沐博士主要是分享了他的三步法快速读论… 9年后重读深度学习奠基作之一AlexNet【下】【论文精读】这两天偶然间在B站看了李沐博士对AlexNet论文的重新解读收获满满。AlexNet是当今深度学习浪潮奠基作之一发表在2012年。在视频中李沐博士主要是分享了他的三步法快速读论文。即当我们看一篇新的论文可以按照下面这种方法去读 第一遍论文标题、摘要、结论。顺带看看论文中重要的图和表。花费十几分钟时间判断论文是否和自己的研究方向相同。第二遍确定论文值得读之后可以快速的把整个论文过一遍不需要知道所有的细节但是需要了解重要的图和表知道每一个部分在干什么圈出相关文献。觉得文章太难理解的话可以先看看论文中引用的其它文献了解相关背景知识。第三遍最详细的一遍知道每一段和每一句话是什么意思在复现论文时再反复研读。 AlexNet论文链接https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 1.第一遍 首先是论文标题论文标题中文意思是使用深度卷积神经网络对ImageNet数据集进行分类。第一次读论文标题时要注意下面几个关键词 ImageNet论文使用的数据集是ImageNetImageNet数据集具体内容是什么样的Neural Networks 神经网络这篇文章使用了神经网络技术。Deep Convolutional卷积神经网络工作原理是什么? 同时作者为什么要使用深度的卷积神经网络。 下面是论文的作者论文一作是Alex这也是本篇论文提出的网络被称为AlexNet的原因。可能对论文前两个作者不是很熟悉但是论文通信作者是Hinton长期研究神经网络和深度学习。 下面是论文摘要摘要总共六句话。 前2句话介绍了自己做的工作训练了一个很大很深的卷积神经网络在LSVRC-2010 contest取得了很好的结果。第3句话介绍了网络的模型有6000万个参数和65万个神经元模型包含5个卷积层以及最大池化层和3个全连接层。第4句和第5句介绍了如何训练网络使用了不饱和的神经元和GPU实现为了减少全连接层的过拟合使用了dropout技术。最后一句 介绍在ILSVRC-2012比赛取得了第一名错误率比第二名低了10.9%可以看到本文设计的网络模型效果很好。 最后是论文结论部分不过本篇论文的结论是讨论和一般论文稍有不同。论文讨论有两段第一段说我们在有监督学习上取得了很好的效果证明了网络的深度很重要。第二段说我们没有使用任何的无监督预训练这直接导致了后面的深度学习研究都集中在有监督学习上同时作者提出未来会研究视频数据当前研究的一个很火方向因为视频数据会提供时序信息这是静态图像数据所缺失的。 在第一遍时可以顺带看看论文中重要的图和表如网络结构图可能第一遍不一定能看懂。第一遍读完后可以决定后面是否再度第二遍论文如果是研究图片分类方向的话则需要再读第二遍。 2.第二遍 首先是Introduction部分分为5段。前3段主要是研究内容背景知识介绍第4段介绍了本文主要贡献。本文训练了一个很大的卷积神经网络在ILSVRC比赛上取得了最好的结果同时本文在GPU实现了2D卷积操作。本文训练的网络包含一些新的和不常见的特征来提高网络性能和减少训练时间这部分在论文第3节进行了介绍。第4节介绍了新的技术来防止过拟合。整个网络包含5个卷积层和3个全连接层同时发现网络深度是很重要的即使移除任意一层卷积层都会导致性能下降。 作者还强调了由于GPU内存的限制在两块GPU上进行训练时需要5-6天时间如果能有更快的GPU和更大的数据集网络性能还能进一步提升。 然后是ImageNet Dataset部分分为3段。介绍了整个数据集大约有1500万张图片共有22000类。ILSVRC比赛共有1000类每一类大约有1000张图片。在2010的比赛中可以得到测试集数据标签但是在2012年的比赛中则没有测试集标签。 由于ImageNet数据集图片精度并不相同因此我们每一张图片下采样到256×256256\times256256×256。当短边尺寸小于256时我们先上采样到256然后再从图片中截取 256×256256\times256256×256 的图片作为输入。我们没有对图片进行任何的预处理整个网络是在每个像素的原始RGB值进行训练也就是端到端训练这也是深度学习的一大优势。 再然后是Architecture部分分为5个小节。 第一个介绍的是ReLU激活函数函数形式为 f(x)max(0,x)f(x)max(0,x)f(x)max(0,x)形式比较简单。作者说这是一个非饱和的非线性函数比其它激活函数训练要快具体原因没解释关于ReLU函数的具体介绍可以看参考文献[20]。作者做了一个实验如图1所示在将错误率降低到25%时ReLU比tanh函数训练时要快6倍。 第2小节-第4小节介绍的是多GPU训练归一化处理、pooling处理主要是偏工程实现这些部分可先跳过在读第3遍时再看。 第5小节是网络结构介绍输入是 224×224×3224\times224\times3224×224×3 的图片然后是5个卷积层接着是3个全连接层最后一层是softmax层输出为1000个类别标签的预测概率分布。使用了两个GPU进行训练现在训练网络一般可以不同分割模型将网络模型切成两半分别在两个GPU中进行训练。第2个、第4个和第5个卷积层的输入为同一GPU上之前一层卷积层的输出而第3个卷积层的输入为两个GPU上的第2个卷积层输出。每个全连接层的输入都为前一层网络的全部输出。可以看到随着网络深度的增加卷积层中图像大小在减少而深度在不断增加。 接着是Reducing Overfitting部分作者首先使用了数据增强增加数据的多样性然后使用了新的降低过拟合技术dropout。具体原理作者并没有解释作者使用了50%的概率值来使每一个隐藏层神经元输出为0。这里dropout技术主要用在前两个全连接层。 下面是实验设置使用SGD进行训练同时使用了权重衰减0.0005。初始化时使用了均值为0标准差为0.01的高斯分布第2、4、5层和全连接层偏差初始值为1其余层为0。在训练时会手动改变学习率的值当验证集上误差率不再变化时将学习率除以10学习率初始值为0.01。 下面是论文实验结果部分可以看到在ILSVRC-2010/2012数据上作者都取得了最低的错误率同时作者也在2009年版本的ImageNet全部数据上进行了训练不过在ImageNet全部数据集上进行训练的研究比较少。 作者在训练时也发现了一些有意思的现象就是两个GPU一个GPU上和卷积核和图像颜色是有关的一个和图像颜色是无关的这个还待解释。另一个是图4所示当最后一个隐藏层4096神经元欧几里得空间距离相近是两张图片基本上是同一类深度学习的解释性也是一个很重要的研究方向。 至此论文解读到此结束后面如果想复现本篇论文时就需要再多读几遍。
http://www.pierceye.com/news/772421/

相关文章:

  • 网站开发技术的选择wordpress 标签 中文
  • 建设速干裤移动网站公司logo注册
  • 中山网站建设找阿江欢迎页网页设计作品欣赏
  • seo是东莞企业网站排seo网站制作与管理技术...
  • 哪里有建设好的网站做网站用哪个预装系统
  • h5技术建设网站的知识wordpress+主题+欣赏
  • 如何优化网站排名淘宝客 备案 网站名称
  • 网站后台管理系统源代码沧州市宇通网站建设公司
  • 郴州网站设计公司阜新网站设计
  • 成都网站制作中国互联个人做电影网站赚钱吗
  • 如何做自己的影视网站惠州惠城网站建设
  • 温州网站推广外包推推蛙网站建设
  • 北京百度网站排名优化四川公共资源交易网招标网
  • 上海网站制作商多用户网上商城
  • 四川建设网电子招投标网站莱芜金点子电话
  • 深圳科技网站建设网站怎么做跳站
  • 做网站需要多少人全国物流货运平台
  • 温州建网站用自己的电脑做网站
  • 综合性门户网站有哪些高端网站建设 房产
  • 百度做的网站能优化吗如何在jsp上做网站页面代码
  • 广州市品牌网站建设公司营销型网站开发推广
  • 甜品网站首页设计用php做的网站模版
  • 怎样做企业的网站百度下载安装免费版
  • 常州市网站优化汕头网站建设和运营
  • wordpress 同分类评论调用seo排名是什么
  • 网站建设推广怎么玩软件开发模型是什么
  • 网站开发报价表格海口注册公司代理公司地址电话
  • 西宁好的网站建设视频网站文案
  • 郑州网站优化网络建设有限公司网站建设 交单流程
  • 网站搬家内页打不开重庆市建设工程信息网怎么进不去