当前位置: 首页 > news >正文

做网站商城赔了8万WordPress十万数据可以

做网站商城赔了8万,WordPress十万数据可以,如何做拍卖网站,一个人做网站需要多久正向传播与反向传播 1. 正向传播 正向传播是指对神经网络沿着从输入层到输出层的顺序#xff0c;依次计算并存储模型的中间变量#xff08;包括输出#xff09;。 假设输入是一个特征为x∈Rd\boldsymbol{x} \in \mathbb{R}^dx∈Rd的样本#xff0c;且不考虑偏差项#x…正向传播与反向传播 1. 正向传播 正向传播是指对神经网络沿着从输入层到输出层的顺序依次计算并存储模型的中间变量包括输出。 假设输入是一个特征为x∈Rd\boldsymbol{x} \in \mathbb{R}^dx∈Rd的样本且不考虑偏差项那么中间变量 zW(1)x,\boldsymbol{z} \boldsymbol{W}^{(1)} \boldsymbol{x},zW(1)x, 矩阵相乘 其中W(1)∈Rh×d\boldsymbol{W}^{(1)} \in \mathbb{R}^{h \times d}W(1)∈Rh×d是隐藏层的权重参数。把中间变量z∈Rh\boldsymbol{z} \in \mathbb{R}^hz∈Rh输入按元素运算的激活函数ϕ\phiϕ后将得到向量长度为hhh的隐藏层变量 hϕ(z).\boldsymbol{h} \phi (\boldsymbol{z}).hϕ(z). 隐藏层变量h\boldsymbol{h}h也是一个中间变量。假设输出层参数只有权重W(2)∈Rq×h\boldsymbol{W}^{(2)} \in \mathbb{R}^{q \times h}W(2)∈Rq×h可以得到向量长度为qqq的输出层变量 oW(2)h.\boldsymbol{o} \boldsymbol{W}^{(2)} \boldsymbol{h}.oW(2)h. 假设损失函数为ℓ\ellℓ且样本标签为yyy可以计算出单个数据样本的损失项 Lℓ(o,y).L \ell(\boldsymbol{o}, y).Lℓ(o,y). 根据L2L_2L2​范数正则化的定义给定超参数λ\lambdaλ正则化项即超参数λ\lambdaλ即表示惩罚的力度 sλ2(∣W(1)∣F2∣W(2)∣F2),s \frac{\lambda}{2} \left(|\boldsymbol{W}^{(1)}|_F^2 |\boldsymbol{W}^{(2)}|_F^2\right),s2λ​(∣W(1)∣F2​∣W(2)∣F2​), 其中矩阵的Frobenius范数等价于将矩阵变平为向量后计算L2L_2L2​范数。最终模型在给定的数据样本上带正则化的损失为 JLs.J L s.JLs. 我们将JJJ称为有关给定数据样本的目标函数。 2. 反向传播 反向传播用于计算神经网络中的参数梯度。反向传播利用微积分中的链式法则沿着从输出层到输入层的顺序进行依次计算目标函数有关神经网络各层的中间变量以及参数的梯度。 依据链式法则我们可以知道 ∂J∂oprod(∂J∂L,∂L∂o)∂L∂o.\frac{\partial J}{\partial \boldsymbol{o}} \text{prod}\left(\frac{\partial J}{\partial L}, \frac{\partial L}{\partial \boldsymbol{o}}\right) \frac{\partial L}{\partial \boldsymbol{o}}. ∂o∂J​prod(∂L∂J​,∂o∂L​)∂o∂L​. (∂J∂L1,∂J∂s1)\left( \frac{\partial J}{\partial L} 1, \quad \frac{\partial J}{\partial s} 1\right)(∂L∂J​1,∂s∂J​1) 其中prod\text{prod}prod运算符将根据两个输入的形状在必要的操作如转置和互换输入位置后对两个输入做乘法。 ∂J∂W(2)prod(∂J∂o,∂o∂W(2))prod(∂J∂s,∂s∂W(2))∂J∂oh⊤λW(2)\frac{\partial J}{\partial \boldsymbol{W}^{(2)}} \text{prod}\left(\frac{\partial J}{\partial \boldsymbol{o}}, \frac{\partial \boldsymbol{o}}{\partial \boldsymbol{W}^{(2)}}\right) \text{prod}\left(\frac{\partial J}{\partial s}, \frac{\partial s}{\partial \boldsymbol{W}^{(2)}}\right) \frac{\partial J}{\partial \boldsymbol{o}} \boldsymbol{h}^\top \lambda \boldsymbol{W}^{(2)} ∂W(2)∂J​prod(∂o∂J​,∂W(2)∂o​)prod(∂s∂J​,∂W(2)∂s​)∂o∂J​h⊤λW(2) 其中 (∂s∂W(1)λW(1),∂s∂W(2)λW(2))\left(\frac{\partial s}{\partial \boldsymbol{W}^{(1)}} \lambda \boldsymbol{W}^{(1)},\quad\frac{\partial s}{\partial \boldsymbol{W}^{(2)}} \lambda \boldsymbol{W}^{(2)}\right)(∂W(1)∂s​λW(1),∂W(2)∂s​λW(2)) 还有 ∂J∂W(2)prod(∂J∂o,∂o∂W(2))prod(∂J∂s,∂s∂W(2))∂J∂oh⊤λW(2)\frac{\partial J}{\partial \boldsymbol{W}^{(2)}} \text{prod}\left(\frac{\partial J}{\partial \boldsymbol{o}}, \frac{\partial \boldsymbol{o}}{\partial \boldsymbol{W}^{(2)}}\right) \text{prod}\left(\frac{\partial J}{\partial s}, \frac{\partial s}{\partial \boldsymbol{W}^{(2)}}\right) \frac{\partial J}{\partial \boldsymbol{o}} \boldsymbol{h}^\top \lambda \boldsymbol{W}^{(2)} ∂W(2)∂J​prod(∂o∂J​,∂W(2)∂o​)prod(∂s∂J​,∂W(2)∂s​)∂o∂J​h⊤λW(2) ∂J∂hprod(∂J∂o,∂o∂h)W(2)⊤∂J∂o\frac{\partial J}{\partial \boldsymbol{h}} \text{prod}\left(\frac{\partial J}{\partial \boldsymbol{o}}, \frac{\partial \boldsymbol{o}}{\partial \boldsymbol{h}}\right) {\boldsymbol{W}^{(2)}}^\top \frac{\partial J}{\partial \boldsymbol{o}} ∂h∂J​prod(∂o∂J​,∂h∂o​)W(2)⊤∂o∂J​ ∂J∂zprod(∂J∂h,∂h∂z)∂J∂h⊙ϕ′(z)\frac{\partial J}{\partial \boldsymbol{z}} \text{prod}\left(\frac{\partial J}{\partial \boldsymbol{h}}, \frac{\partial \boldsymbol{h}}{\partial \boldsymbol{z}}\right) \frac{\partial J}{\partial \boldsymbol{h}} \odot \phi\left(\boldsymbol{z}\right) ∂z∂J​prod(∂h∂J​,∂z∂h​)∂h∂J​⊙ϕ′(z) 所以可以得到 ∂J∂W(1)prod(∂J∂z,∂z∂W(1))prod(∂J∂s,∂s∂W(1))∂J∂zx⊤λW(1)\frac{\partial J}{\partial \boldsymbol{W}^{(1)}} \text{prod}\left(\frac{\partial J}{\partial \boldsymbol{z}}, \frac{\partial \boldsymbol{z}}{\partial \boldsymbol{W}^{(1)}}\right) \text{prod}\left(\frac{\partial J}{\partial s}, \frac{\partial s}{\partial \boldsymbol{W}^{(1)}}\right) \frac{\partial J}{\partial \boldsymbol{z}} \boldsymbol{x}^\top \lambda \boldsymbol{W}^{(1)}∂W(1)∂J​prod(∂z∂J​,∂W(1)∂z​)prod(∂s∂J​,∂W(1)∂s​)∂z∂J​x⊤λW(1) 在模型参数初始化完成后需要交替地进行正向传播和反向传播并根据反向传播计算的梯度迭代模型参数。在反向传播中使用了正向传播中计算得到的中间变量来避免重复计算同时这个复用也导致正向传播结束后不能立即释放中间变量内存。这也是训练要比预测占用更多内存的一个重要原因。这些中间变量的个数大体上与网络层数线性相关每个变量的大小跟批量大小和输入个数也是线性相关的这是导致较深的神经网络使用较大批量训练时更容易超内存的主要原因。
http://www.pierceye.com/news/224252/

相关文章:

  • 模板手机网站建设公司河南最新新闻事件今天
  • 企业网站备案要钱吗商标设计费用一般是多少
  • 天津专业网站制作新乡商城网站建设价格
  • 建筑业务网站建设泉州公司做网站
  • 做网站遇到的问题及解决方法网站快速查找
  • excel做网页放进网站2024年报申报入口官网
  • 伊春住房和城乡建设局网站滨州网站建设制作
  • 芒市网站建设wordpress登入修改
  • 室内设计招标网站mvc网站入口asp
  • 淘宝客怎么建设自己网站wordpress主题模板仿
  • 淄博做网站电话网站建设大赛策划书
  • 网站建设模板网站网站分析的优劣势
  • 医疗网站备案要怎么做 需要准备什么材料高端html5网站建设织梦模板
  • 网站建设支付方式站长之家seo综合
  • 桂林网丫网业管理有限公司外贸网站建设和优化
  • 安徽合肥中国建设银行网站首页如何寻找做网站的客户
  • 网站是怎么做网站建设风险是什么
  • 商丘电子商务网站建设徽文化网站建设方案书
  • 什么网站做视频给钱网上做广告宣传
  • 建网站域名注册后需要做seo是什么意思
  • 做系统正版win10系统下载网站安定网站建设
  • 代码怎么做网站网站建设合同 简单
  • 耐克官网网站设计做一个企业网站需要多少钱
  • 动易手机网站自己开发小程序要多少钱
  • 英迈思做的网站怎么样网站做m版
  • 通州设计网站建设城市宣传片制作公司
  • 南安网站设计网站创意
  • 建设部网站造价注册seo优化易下拉霸屏
  • 西安网站外包上海网站被查
  • 建简单网站高端建筑铝型材