当前位置: 首页 > news >正文

宁波网站制作与推广广告营销策略

宁波网站制作与推广,广告营销策略,网站建设网络课程,网站主页设计代码一、背景 AlexNet是在2012年由Alex Krizhevsky等人提出的#xff0c;该网络在2012年的ImageNet大赛上夺得了冠军#xff0c;并且错误率比第二名高了很多。Alexnet共有8层结构#xff0c;前5层为卷积层#xff0c;后三层为全连接层。 论文地址#xff1a;ImageNet Classif… 一、背景 AlexNet是在2012年由Alex Krizhevsky等人提出的该网络在2012年的ImageNet大赛上夺得了冠军并且错误率比第二名高了很多。Alexnet共有8层结构前5层为卷积层后三层为全连接层。 论文地址ImageNet Classification with Deep Convolutional Neural Networks 二、创新点 1、使用大型深度卷积神经网络 作者使用了一个大型深度卷积神经网络在ImageNet数据集上取得了非常好的结果。说明大型网络对模型的效果影响比较大这也是为什么现在大家都在做大模型的原因。 2、ReLU激活函数 该论文推广了使用整流线型单元ReLC)激活函数这有助于训练更深的网络而不会出现梯度消失的问题。 3、局部响应一体化LRN)的使用 4、数据增强 为了减少过拟合作者采用数据增强的方法。通过对训练图像进行平移、翻转等操作来扩充训练集从而增强了训练样本的多样性。 5、Dropout技术 为了进一步减少过拟合作者采用了dropout技术。在训练过程中以一定概率将隐藏层神经元的输出置为零。 可以看出这篇文章发表在2012年已经是很久以前但是这篇文章用到的Relu函数Dropout技术到目前还是广泛使用的。 三、AlexNet使用PyTorch框架实现 from torch import nnclass AlexNet(nn.Module):def __init__(self,class_num):super(AlexNet,self).__init__()self.class_num class_num# input(N,3,224,224)self.net nn.Sequential(nn.Conv2d(in_channels3,out_channels96,kernel_size11,stride4,padding_modezeros),nn.ReLU(inplaceTrue),nn.LocalResponseNorm(size5,alpha1e-4,beta0.75,k2),nn.MaxPool2d(kernel_size3,stride2),nn.Conv2d(in_channels96,out_channels256,kernel_size5,stride1,padding_modezeros),nn.ReLU(inplaceTrue),nn.LocalResponseNorm(size5,alpha1e-4,beta0.75,k2),nn.MaxPool2d(kernel_size3,stride2),nn.Conv2d(in_channels256, out_channels384, kernel_size3, stride1, padding_modezeros),nn.ReLU(inplaceTrue),nn.Conv2d(in_channels384, out_channels384, kernel_size3, stride1, padding_modezeros),nn.ReLU(inplaceTrue),nn.Conv2d(in_channels384, out_channels384, kernel_size3, stride1, padding_modezeros),nn.ReLU(inplaceTrue),nn.MaxPool2d(kernel_size1,stride2))self.fully_connectednn.Sequential(nn.Linear(in_features256*6*6,out_features4096),nn.ReLU(),nn.Dropout(p0.5),nn.Linear(in_features4096,out_features4096),nn.ReLU(),nn.Dropout(p0.5),nn.Linear(in_features4096,out_featuresself.class_num))self.init_bias()def init_bias(self):for layer in self.net:if isinstance(layer,nn.Conv2d):nn.init.normal_(layer.weight,mean0,std0.01)nn.init.constant_(layer.bias,0)nn.init.constant_(self.net[4].bias,1)nn.init.constant_(self.net[10].bias,1)nn.init.constant_(self.net[12].bias,1)nn.init.constant_(self.fully_connected[0].bias,1)nn.init.constant_(self.fully_connected[3].bias,1)def forward(self,x):x self.net(x)x x.view(-1,256*6*6)x self.fully_connected(x)return x四、AlexNet使用keras框架实现 from keras.models import Sequential from keras.layers import Conv2D, AveragePooling2D, Flatten, Dense,Activation,MaxPool2D, BatchNormalization, Dropout from keras.regularizers import l2 # 实例化一个空的顺序模型 model Sequential(nameAlexnet) # 1st layer (conv pool batchnorm) model.add(Conv2D(filters 96, kernel_size (11,11), strides(4,4), paddingvalid, kernel_regularizerl2(0.0005), input_shape (227,227,3))) model.add(Activation(relu)) #---- activation function can be added on its own layer or within the Conv2D function model.add(MaxPool2D(pool_size(3,3), strides (2,2), paddingvalid)) model.add(BatchNormalization())# 2nd layer (conv pool batchnorm) model.add(Conv2D(filters256, kernel_size(5,5), strides(1,1), paddingsame, kernel_regularizerl2(0.0005))) model.add(Activation(relu)) model.add(MaxPool2D(pool_size(3,3), strides(2,2), paddingvalid)) model.add(BatchNormalization())# layer 3 (conv batchnorm) --- note that the authors did not add a POOL layer here model.add(Conv2D(filters384, kernel_size(3,3), strides(1,1), paddingsame, kernel_regularizerl2(0.0005))) model.add(Activation(relu)) model.add(BatchNormalization())# layer 4 (conv batchnorm) --- similar to layer 3 model.add(Conv2D(filters384, kernel_size(3,3), strides(1,1), paddingsame, kernel_regularizerl2(0.0005))) model.add(Activation(relu)) model.add(BatchNormalization())# layer 5 (conv batchnorm) model.add(Conv2D(filters256, kernel_size(3,3), strides(1,1), paddingsame, kernel_regularizerl2(0.0005))) model.add(Activation(relu)) model.add(BatchNormalization()) model.add(MaxPool2D(pool_size(3,3), strides(2,2), paddingvalid))# 平铺 CNN 输出为其提供完全连接的层 model.add(Flatten())# layer 6 (Dense layer dropout) model.add(Dense(units 4096, activation relu)) model.add(Dropout(0.5))# layer 7 (Dense layers) model.add(Dense(units 4096, activation relu)) model.add(Dropout(0.5))# layer 8 (softmax output layer) model.add(Dense(units 1000, activation softmax))# 打印模型摘要 model.summary()
http://www.pierceye.com/news/77453/

相关文章:

  • 如何搭建手机网站建网站平台哪家好
  • 网站建站怎么报价佛山专业的网页制作
  • 做app封装的网站wordpress注册页模板
  • 福州网站搭建网络推广和seo
  • 云平台建设网站如何联系网站
  • 网站常见程序问题wordpress国内主题
  • 河南省住房与城乡建设厅网站wordpress 暗盒
  • 做国外搞笑网站有哪些seo优化排名教程
  • 上海网站seo招聘建设工程施工许可证查询网站
  • 丰功网站建设上海网站建设案例
  • seo三人行网站怎么改网站域名
  • 想学编程做网站品牌vi设计升级
  • 网站模板凡建站网站建设及管理工作岗位要求
  • 建设购物网站的方案做动漫头像的网站
  • 国家住房与城乡建设部网站wordpress5.2 注册验证
  • 自己做网站开店方正宽带网络服务有限公司
  • 溧阳 做网站wordpress怎么修改主题
  • 南昌互联网网站开发长春通信网络
  • 网站开发需要多久互联网+创业项目
  • 贵阳网站建设设计网站备案 异地
  • 深圳企业网站模板软件下载网站怎么做
  • 代刷网可以做网站地图godaddy 同时安装dedecms和wordpress
  • wordpress 制作侧边栏关键词排名优化外包
  • 郴州企业网站建设商城网站
  • 本地的沈阳网站建设网站备案回访电话号码
  • 怎么做安居客网站游戏开发比网站开发
  • 北京汇云世纪网络科技有限公司做网站怎么样医院网站和公众号建设方案
  • 网站制作公司 沈阳网页制作模板的网站免费
  • 惠州悦商做网站青岛谷歌优化
  • 西安单位网站建设手机端微网站设计模板