重庆推广网站的方法,莱芜区平台公司,拉新推广,1688下载安装文章目录 前言1.卷积网络和传统网络区别2.卷积神经网络整体架构1.输入层2. 卷积层3.池化层4.全连接层 5.神经网络6.经典网络1.Alexnet2. Vgg3.Resnet 残差网络-特征提取 7.感受野 前言
大纲目录
首先链接图像颜色通道 1.卷积网络和传统网络区别
右边的就是CNN#xff0c;卷… 文章目录 前言1.卷积网络和传统网络区别2.卷积神经网络整体架构1.输入层2. 卷积层3.池化层4.全连接层 5.神经网络6.经典网络1.Alexnet2. Vgg3.Resnet 残差网络-特征提取 7.感受野 前言
大纲目录
首先链接图像颜色通道 1.卷积网络和传统网络区别
右边的就是CNN卷积神经网络是个三维的hwc. 传统的是平面的。 2.卷积神经网络整体架构 1.输入层 2. 卷积层
卷积就是特征提取边界的特征和猫脸的特征重要程度不一样。
下面是一个颜色通道图
这是三通道做卷积三个卷积核333卷积核矩阵也不一样都是做内积所有结果相乘结果加起来 想一下为什么输出是332 这是因为有两个卷积 这个图和上面的图差不多我们可以采用两个卷积核去提取特征 这里使用了6个 这里使用了n个
卷积最重要的是卷积矩阵不同小区特征值是不一样的。
这个就是三通道加起来
下面就是 卷积要做多少次 卷积后大小不一定变换 3.池化层
其实就是下采样 就是找一个最大值 4.全连接层
其实就是做了很多卷积只不过卷积核和原图大小一样大做成一个一维的特征向量 5.神经网络
每一个卷积加一个relu两次卷积一次池化 全连接层32**32*10如果有5个类别那么就是【102405】 6.经典网络
1.Alexnet 2. Vgg 3.Resnet 残差网络-特征提取
分类和回归跟损失函数有关。 层数越大error越大。 如何解决 如下图经过两层卷积后结果不好我们再加一条路到时候就把后面的两层给去掉权重参数全部设置为0.加了这条路就有了一个保底的路径。学习完之后不比原来的差。 这样就可以做到1k层。 7.感受野
最后的那个值是最开始几个数值的综合。