当前位置: 首页 > news >正文

大型网站开发考试南博会官方网站建设投入

大型网站开发考试,南博会官方网站建设投入,软件服务外包,模板做的网站 怎么提升排名The Residuals 我们需要提到的编码器架构中的一个细节是#xff0c;每个编码器中的每个子层(self-attention,#xff0c;ffnn)周围都有一个残余连接#xff0c;然后是 layer-normalization 步骤。 如果我们要可视化向量和与 self attention 相关的 layer-norm 运算#x…The Residuals 我们需要提到的编码器架构中的一个细节是每个编码器中的每个子层(self-attention,ffnn)周围都有一个残余连接然后是 layer-normalization 步骤。 如果我们要可视化向量和与 self attention 相关的 layer-norm 运算它看起来是这样的 这也适用于解码器的子层。如果我们考虑一个由2个堆叠的编码器和解码器组成的Transformer它看起来就像这样 The Decoder Side 现在我们已经涵盖了编码器方面的大部分概念我们基本上也知道了解码器的组件是如何工作的。但是让我们看看它们是如何协同工作的。 编码器首先处理输入序列。然后顶部编码器的输出被转换成一组注意向量K和v。这些将被每个解码器在其编码器-解码器注意层中使用这有助于解码器专注于输入序列中的适当位置 以下步骤重复该过程直到达到一个特殊符号表明 transformer 解码器已完成其输出。每一步的输出在下一个时间步中被馈送到底部的解码器解码器像编码器一样将它们的解码结果气泡化。就像我们对编码器输入所做的那样我们在这些解码器输入中嵌入并添加位置编码来指示每个单词的位置。 解码器中的 self attention 的运行方式与编码器中的略有不同 在解码器中 self attention 层只允许关注输出序列中的早期位置。这是通过在 self attention 计算的 softmax 步骤之前 mask 未来位置将其设置为-inf来完成的。 “Encoder-Decoder Attention”层的工作原理就像多头 self attention 一样只是它从下面的层创建查询矩阵并从编码器堆栈的输出中获取键和值矩阵。 The Final Linear and Softmax Layer 解码器堆栈输出一个浮点数向量。我们怎么把它变成一个词这是最后一个线性层的工作然后是一个Softmax层。 线性层是一个简单的全连接神经网络它将解码器堆栈产生的向量投影成一个更大的向量称为logits向量。 假设我们的模型知道从训练数据集中学习到的1万个唯一的英语单词(我们模型的输出词汇表)。这将使logits向量有10,000个单元格宽每个单元格对应一个唯一单词的分数。这就是我们如何解释线性层之后的模型输出。 然后softmax层将这些分数转换为概率(所有分数都是正的加起来都是1.0)。选择概率最高的单元格并生成与之关联的单词作为此时间步骤的输出。 Recap Of Training 既然我们已经介绍了经过训练的Transformer的整个前向传递过程那么了解一下训练模型的直觉将会很有用。 在训练期间未经训练的模型将经历完全相同的向前传递。但由于我们是在一个标记的训练数据集上训练它我们可以将它的输出与实际的正确输出进行比较。 为了可视化这一点假设我们的输出词汇表只包含六个单词(a、am、i、thanks、student和(句子结束的缩写))。 一旦定义了输出词汇表就可以使用相同宽度的向量来表示词汇表中的每个单词。这也被称为 one-hot 编码。例如我们可以用下面的向量表示单词am 在这个概述之后让我们讨论模型的损失函数——我们在训练阶段优化的度量以得到一个训练好的、希望非常准确的模型。 The Loss Function 假设我们正在训练我们的模型。假设这是我们训练阶段的第一步我们正在用一个简单的例子来训练它把“merci” 翻译成 “thanks” 。 这意味着我们希望输出是一个表示单词thanks的概率分布。但是由于这个模型还没有经过训练这种情况还不太可能发生。 如何比较两个概率分布?我们简单地用一个减去另一个。要了解更多细节请查看交叉熵和 Kullback–Leibler divergence。 但请注意这是一个过于简化的例子。更现实地说我们将使用一个多于一个单词的句子。例如输入:我是一名学生期望输出:我是一名学生。这真正的意思是我们希望我们的模型连续输出概率分布其中 每个概率分布都由一个宽度词汇大小的向量表示(在我们的示例中是6但更现实的数字是30,000或50,000)。第一个概率分布在与单词i相关的单元格上的概率最高第二个概率分布在与单词am相关的单元格上的概率最高以此类推直到第五个输出分布表示符号它也有一个与它相关联的来自10,000个元素词汇表的单元格。 在足够大的数据集上训练模型足够长的时间后我们希望生成的概率分布看起来像这样 现在由于模型一次产生一个输出我们可以假设模型从该概率分布中选择概率最高的单词然后扔掉其余的。这是一种方法称为贪婪解码。另一种方法是抓住比如说前两个单词例如‘I’ 和 ‘a’然后在下一步中运行模型两次一次假设第一个输出位置是单词 ‘I’ 另一次假设第一个输出位置是单词“a”考虑到保留位置#1和#2哪个版本产生更少的错误。我们对#2和#3等位置重复此操作。这种方法被称为“beam search”在我们的示例中beam_size是两个意味着在任何时候两个部分假设未完成的翻译都保存在内存中top_beams也是两个意味着我们将返回两个翻译。这些都是你可以尝试的超参数。 Reference https://jalammar.github.io/illustrated-transformer/
http://www.pierceye.com/news/535296/

相关文章:

  • 河北邢台wap网站建设南昌网页制作
  • 山东建设人才网站高端母婴网站模板
  • 物业服务网站建设佛山做网站公司有哪些
  • 企业网站模板中文网站域名名字
  • 在服务器网站上做跳转网页设计代码动漫
  • 科协网站建设的意见合肥哪里有做网页的地方
  • 为企业做网站策划案永康网站推广
  • 做个企业网网站怎么做linux建网站
  • 专业建站公司主要做什么wordpress加入下载标签
  • 韩都衣舍网站建设方案美食网站怎么做dw
  • 电商网站开发 参考文献wordpress验证码注册
  • ic外贸网站建设wordpress和shopex
  • 网站技术制作流程图国内顶尖小程序开发公司
  • 免费网站建设下载优化关键词规则
  • 网站浮动窗口如何做自己怎么做淘宝客网站
  • 石材外贸在哪个网站做网页版 微信
  • 网站开发属于程序员吗sem 优化软件
  • 公司做网站是管理费用小程序官方文档
  • 公司网站推广技巧响水网站设计
  • 徐州本地网站wap页面是什么
  • 网站开发应用价值做套网站多少钱
  • asp.net网站模板免费下载怎么才能访问自己做的网站
  • 长沙企业网站制作宝安公司网站建设
  • 做网站需要拉多大的宽带dw做的网站怎么做后台
  • 公司网站建设设计公司哪家好wordpress自动封ip
  • 郫县网站制作wordpress搜索打钩
  • 哪些网站可以做招商广告语wordpress发文章的id怎么不连续
  • 家私网站栏目和功能需求策划网页样式库
  • 什么是网站网页主页企业电子邮箱格式
  • 金属建材企业网站建设方案用pycharm做网站