当前位置: 首页 > news >正文

定制营销型网站广州 网站开发 公司

定制营销型网站,广州 网站开发 公司,个人网站app,庄河做网站CNN#xff0c;卷积神经网络#xff0c;Convolution Neural Network 卷积计算公式#xff1a;N #xff08;W-F2p#xff09;/s1 这个公式每次都得看看#xff0c;不能忘 1 经典网络 按照时间顺序 1.1 LeNet LeNet是 Yann LeCun在1998年提出#xff0c;用于解决手…CNN卷积神经网络Convolution Neural Network 卷积计算公式N W-F2p/s1 这个公式每次都得看看不能忘 1 经典网络 按照时间顺序 1.1 LeNet LeNet是 Yann LeCun在1998年提出用于解决手写数字识别的视觉任务。自那时起CNN的最基本的架构就定下来了卷积层、池化层、全连接层。 深度学习开山之作LeNet实战:(现代卷积神经网络/网络结构/原理解析/源码解读)、《Gradient-Based Learning Appliedto Document Recognition》_会害羞的杨卓越的博客-CSDN博客 1.2 AlexNet 深度学习奠基作AlexNet《ImageNet Classification with Deep Convolutional Neural Networks》之论文解读上篇_会害羞的杨卓越的博客-CSDN博客 AlexNet网络结构详解_会害羞的杨卓越的博客-CSDN博客 AlexNet是2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的把CNN的基本原理应用到了很深很宽的网络中。 主要参数AlexNet网络包含8层其中前5层为卷积-池化层后3层为全连接层输入224×224×3的图像第一卷积层用96个11×11×3的卷积核对进行滤波步幅4像素全连接的每层有4096个神经元最后一个完全连接的层的输出被馈送到1000路SoftMax它产生超过1000个类别标签的分布整个网络共650000个神经元。 特点 使用ReLU作为激活函数并验证其效果在较深的网络超过了Sigmoid成功解决了Sigmoid在网络较深时的梯度弥散问题使用Dropout丢弃学习随机忽略一部分神经元防止过拟合在CNN中使用重叠的最大池化。此前CNN中普遍使用平均池化AlexNet全部使用最大池化避免平均池化的模糊化效果提出了LRNLocal Response Normalization局部正规化层对局部神经元的活动创建竞争机制使得其中响应比较大的值变得相对更大并抑制其他反馈较小的神经元增强了模型的泛化能力使用CUDA加速深度卷积网络的训练利用GPU强大的并行计算能力处理神经网络训练时大量的矩阵运算 1.3 VGG 网络深度16-19层5组卷积-池化3个全连接三个全连接层前两层都有4096通道第三层共1000路及代表1000个标签类别最后一层为softmax层所有卷积层有相同的配置即卷积核大小为3x3步长为1填充为1 深度学习奠基作VGG《Very Deep Convolutional Networks for Large-Scale Image Recognition》(现代卷积神经网络/网络结构)_会害羞的杨卓越的博客-CSDN博客 1.4 GoogleNet 深度学习奠基作GoogleNet《Very Deep Convolutional Networks for Large-Scale Image Recognition》(现代卷积神经网络/网络结构)_会害羞的杨卓越的博客-CSDN博客 1.5 ResNet 深度学习最强奠基作ResNet《Deep Residual Learning for Image Recognition》论文解读(上篇)_会害羞的杨卓越的博客-CSDN博客 2 网络结构 2.1 卷积层 通过卷积操作进行特征提取和降维。 2.2 激活层 将前一层的输出通过非线性的激活函数进行处理用以模拟任意维度的函数增强网络的表征能力。 常用的激活函数 阶跃函数用的较少sigmoid函数 优点平滑易求导缺点激活函数计算量大反向传播求误差梯度时求导涉及除法反向传播时很容易就会出现梯度消失的情况从而无法完成深层网络的训练改善方案归一化用sk-learn函数处理tanh函数 常用于NLP其他类似sigmiod函数Relu函数常用优点 更加有效率的梯度下降以及反向传播避免了梯度爆炸和梯度消失问题计算过程简单softmax函数特点多分类模型适用 2.3 池化 也称子采样层或下采样层Subsampling Layer目的是缩小高、长方向上的空间的运算以降低计算量提高泛化能力。 计算方式 Max池化对于每个输入矩阵我们将其切割成若干大小相等的正方形小块对各个参与池化计算的区域取最大值形成的新矩阵。在图像识别领域主要使用Max池化Average池化对于每个输入矩阵我们将其切割成若干大小相等的正方形小块对各个参与池化计算的区域计算平均值 池化层特征 没有要学习的参数。池化层和卷积层不同没有要学习的参数。池化只是从目标区域中取最大值或者平均值所以不存在要学习的参数通道数不发生变化。经过池化运算输入数据和输出数据的通道数不会发生变化 对微小的位置变化具有鲁棒性健壮。输入数据发生微小偏差时池化仍会返回相同的结果 2.4 全连接层 这个网络层相当于多层感知机Multi-Layer Perceptron简称MLP其在整个卷积神经网络中起到分类器的作用。 通过前面多个“卷积-激活-池化”层的反复处理待处理的数据特性已有了显著提高一方面输入数据的维度已下降到可用传统的前馈全连接网络来处理了另一方面此时的全连接层输入的数据已不是“泥沙俱下、鱼龙混杂”而是经过反复提纯过的结果因此输出的分类品质要高得多。
http://www.pierceye.com/news/689196/

相关文章:

  • 响应式网站有哪些2017淮南网络推广报价
  • 兰州公司网站建设网站建设筹备方案
  • 租房网站建设做一个跨境电商网站
  • 网站设计制作过程容桂做pc端网站
  • 宜昌市上海中学官网seo文章外包
  • 加强普法网站建设的通知制作婚恋网站
  • 北大荒建设集团有限公司网站网站添加在线qq聊天
  • 网站首页被k咋办上海市企业服务云登录
  • 长安镇网站建设公司大网站制作公司
  • 衡水做网站推广找谁廊坊百度推广排名优化
  • 网站建设毕业报告wordpress微信登录页面
  • 外包网站建设费用包括网站备份crm系统有哪些
  • 高端网站设计推广v信haotg8wordpress 付费后查看
  • cms管理手机网站长春做网站好的公司
  • 可信网站认证 技术支持单位沈阳又一烂尾项目复工
  • 南昌网站建设培训学校做幼儿网站的目标
  • 装饰网站建设的背景怎么做原创动漫视频网站
  • 电脑购物网站模板c2c商城网站建设二次开发
  • 自建站有哪些dz论坛网站源码
  • 湖南湘源建设工程有限公司网站牛商网网站做seo好么
  • 郑州网站制作建设南宁网站设计要多少钱
  • 网站地图制作怎么做云南建设网
  • 网站开发项目经验怎么写网站首页做一点开有动画
  • 乔拓云智能建站系统官网注册公司在哪个网站注册
  • lisp 网站开发什么是网站设计
  • 北京市残疾人网上服务平台网奇seo培训官网
  • 福建省建设环卫协会网站自动的小企业网站建设
  • 深圳关键词seo北京网络优化推广公司
  • 旅游网站建设课程设计报告内部优惠券网站建站
  • 郑州网站优化汉狮网络苏州互联网公司集中在哪里