当前位置: 首页 > news >正文

专业做羽绒服的服装网站wordpress环境

专业做羽绒服的服装网站,wordpress环境,机械加工网报价,打开浏览器直接进入网站深度学习#xff1a;循环神经网络RNN及LSTM 循环神经网络RNN原理代码 长短期记忆网络LSTM原理遗忘门记忆门输出门 代码 循环神经网络RNN 原理 对于传统的神经网络#xff0c;它的信号流从输入层到输出层依次流过#xff0c;同一层级的神经元之间#xff0c;信号是不会相互… 深度学习循环神经网络RNN及LSTM 循环神经网络RNN原理代码 长短期记忆网络LSTM原理遗忘门记忆门输出门 代码 循环神经网络RNN 原理 对于传统的神经网络它的信号流从输入层到输出层依次流过同一层级的神经元之间信号是不会相互传递的。这样就会导致一个问题输出信号只与输入信号有关而与输入信号的先后顺序无关并且神经元本身也不具有存储信息的能力整个网络也就没有“记忆”能力。当输入信号是一个跟时间相关的信号时如果我们想要通过这段信号的“上下文”信息来理解一段时间序列的意思传统的神经网络结构就显得无力了。与我们人类的理解过程类似我们听到一句话时往往需要通过这句话中词语出现的顺序以及我们之前所学的关于这些词语的意思来理解整段话的意思而不是简单的通过其中的几个词语来理解。 因此我们需要构建具有“记忆”能力的神经网络模型用来处理需要理解上下文意思的信号也就是时间序列数据。循环神经网络RNN被设计用来处理这类时间序列数据它存储每一步时间信息利用历史时刻隐藏状态的特征和当前时刻的输入来预测未来的输出。其网络结构示意图如下 传统的循环神经网络结构较为简单仅通过tanh函数实现历史时刻状态和当前时刻输入到当前时刻的输出。示意图如下 代码 利用pytorch实现循环神经网络RNN # -*- coding:UTF-8 -*- import torch from torch import nn# Define Recurrent Neural Networks class myRNN(nn.Module):Parameters- input_size: feature size- hidden_size: number of hidden units- output_size: number of output- num_layers: layers of LSTM to stackdef __init__(self, input_size, hidden_size1, output_size1, num_layers1):super().__init__()rnn nn.RNN(input_size, hidden_size, num_layers)self.ffn nn.Linear(hidden_size, output_size)def forward(self, _x):x, _ self.rnn(_x) # _x is input, size (seq_len, batch, input_size)s, b, h x.shape # x is output, size (seq_len, batch, hidden_size)x x.view(s*b, h)x self.ffn(x)x x.view(s, b, -1)return x长短期记忆网络LSTM 原理 虽然循环神经网络在语音识别、自然语言处理、视频图像处理等领域已经取得了一定的成果但其实际使用较少因为它存在一定的局限性例如当时间步数较大时循环神经网络容易发生梯度爆炸。其次循环神经网络虽然在理论上可以保留所有历史时刻的信息但在实际使用时信息的传递往往会因为时间间隔太长而逐渐衰减传递一段时刻以后其信息的作用效果就大大降低了。因此普通的RNN对于信息的长期依赖问题没有很好的处理办法。而使用门控循环神经网络Gated RNN可以解决此问题例如长短期记忆网络Long Short Term Memory NetworkLSTM。 LSTM主要包括三个不同的门结构遗忘门、记忆门和输出门。这三个门用来控制LSTM的输入信号 X t X_t Xt​的保留和传递最终反映到细胞状态中间状态 C t C_t Ct​和输出信号 h t h_t ht​。其网络结构示意图如下图所示 LSTM 的关键是细胞状态 C t C_{t} Ct​实现对当前LSTM的状态信息的更新并传递到下一时刻的LSTM中。 遗忘门 遗忘门的作用就是用来舍弃信息的。通过一个Sigmoid函数输出01的信号来决定哪些信息需要遗忘。 记忆门 记忆门的作用就是用来保留信息的它利用一个Sigmoid函数和tanh函数来决定新输入的信息 x t x_t xt​和 h t − 1 h_{t-1} ht−1​中哪些信息需要保留。 更新细胞状态 C t C_{t} Ct​ 输出门 在经过了前面遗忘门与记忆门选择后的细胞状态 C t − 1 C_{t-1} Ct−1​与 t − 1 t-1 t−1时刻的输出信号 h t − 1 h_{t-1} ht−1​和 t t t时刻的输入信号 x t x_t xt​整合到一起作为当前时刻的输出信号 h t h_t ht​。 代码 利用pytorch实现长短期记忆网络LSTM # -*- coding:UTF-8 -*- import torch from torch import nn# Define LSTM Neural Networks class myLSTM(nn.Module):Parameters- input_size: feature size- hidden_size: number of hidden units- output_size: number of output- num_layers: layers of LSTM to stackdef __init__(self, input_size, hidden_size1, output_size1, num_layers1):super().__init__()self.lstm nn.LSTM(input_size, hidden_size, num_layers) # utilize the LSTM model in torch.nn self.ffn nn.Linear(hidden_size, output_size)def forward(self, _x):x, _ self.lstm(_x) # _x is input, size (seq_len, batch, input_size)s, b, h x.shape # x is output, size (seq_len, batch, hidden_size)x x.view(s*b, h)x self.ffn(x)x x.view(s, b, -1)return x
http://www.pierceye.com/news/317297/

相关文章:

  • 如何比较网站小程序商城开发平台
  • 品牌推广宣传词seo整站优化更能准确获得客户
  • 五八同城找工作招聘信息seo服务如何收费
  • 冒充it男给某网站做修复欧美专业牙科医院网站网页源码
  • 搭建网站需要做什么大型 视频网站开发
  • 济南招考院网站网站建设需要些什么东西
  • 手机怎么搭建网站厦门 做网站
  • 网站底部友情链接典型十大优秀网络营销案例
  • 公司装修工程免费推广软件平台seo博客
  • 树状结构的网站一个人可以做多少网站
  • 什么网站是专门做评论赚钱的响应式网站标准尺寸
  • 梅州市建设培训中心网站济南网上房地产
  • 海口网站提升排名专业做公司logo的网站
  • fm网站开发做网站自动赚钱
  • 网站二级导航制作wordpress找人做
  • 网站建设市场占有率网站开发工程师的职责
  • wordpress 单本小说站做网站前景
  • 只做网站可以在百度里收到吗平面设计是干嘛的
  • 义乌网站建设优化推广网站开发需要哪些人怎么分工
  • 关键词排行优化网站企业seo外包
  • 自适应网站怎么做广西建设局建设行政主管部网站
  • 把网站做成手机版学网页设计的培训
  • 陕西省建设厅执业资格注册中心网站报名系统网站建设重庆最加科技
  • 网站优化软件排名器wordpress E405
  • 北京建设部网站职称集约化网站建设方案
  • 常州溧阳建设工程管理中心网站惠州网站网站建设
  • 你的网站尚未进行备案中国建设银行贵州分行网站
  • 白银做网站的董事wordpress模板搬迁
  • 专业的网站开发建访动地科技登录网站
  • 网站模板素材下载如何做二维码跳转到网站