当前位置: 首页 > news >正文

网站设计培训成都哪个网站开发软件

网站设计培训成都,哪个网站开发软件,wordpress用户信息,怎么用ps做购物网站一、说明 众所周知#xff0c;变压器架构是自然语言处理#xff08;NLP#xff09;领域的突破。它克服了 seq-to-seq 模型#xff08;如 RNN 等#xff09;无法捕获文本中的长期依赖性的局限性。变压器架构被证明是革命性架构#xff08;如 BERT、GPT 和 T5 及其变体变压器架构是自然语言处理NLP领域的突破。它克服了 seq-to-seq 模型如 RNN 等无法捕获文本中的长期依赖性的局限性。变压器架构被证明是革命性架构如 BERT、GPT 和 T5 及其变体的基石。正如许多人所说NLP正处于黄金时代说变压器模型是一切开始的地方并没有错。 二、对变压器架构的需求 如前所述需求是发明之母。传统的 seq-to-seq 模型在处理长文本时并不好。这意味着模型在处理输入序列的后半部分时往往会忘记输入序列前半部分的学习。这种信息丢失是不可取的。 尽管像 LSTM 和 GRU 这样的门控架构通过丢弃在记住重要信息的过程中无用的信息在处理长期依赖关系方面表现出一些改进但这仍然不够。世界需要更强大的东西2015年Bahdanau等人引入了“注意力机制”。 它们与RNN / LSTM结合使用以模仿人类行为专注于选择性事物而忽略其余事物。Bahdanau建议为句子中的每个单词分配相对重要性以便模型专注于重要的单词而忽略其余单词。它被认为是对神经机器翻译任务的编码器-解码器模型的巨大改进很快注意力机制的应用也在其他任务中推广。 变压器模型时代 变压器模型完全基于一种注意力机制也称为“自我注意”。这种架构在 2017 年的论文“注意力是你所需要的一切”中向世界介绍。它由编码器-解码器架构组成。 无花果。高级转换器模型体系结构来源作者 在高层次上 编码器负责接受输入的句子并将其转换为隐藏的表示形式丢弃所有无用的信息。解码器接受此隐藏表示形式并尝试生成目标句子。 在本文中我们将深入研究变压器模型的编码器组件的详细细分。在下一篇文章中我们将详细介绍解码器组件。让我们开始吧 三、变压器编码器 变压器的编码器块由一堆按顺序工作的N个编码器组成。一个编码器的输出是下一个编码器的输入依此类推。最后一个编码器的输出是馈送到解码器块的输入句子的最终表示形式。 无花果。带堆叠编码器的Enoder模块来源作者 如下图所示每个编码器块可以进一步分成两个组件。 无花果。编码器层的组件来源作者 让我们逐一详细研究这些组件中的每一个以了解编码器块的工作原理。编码器模块中的第一个组成部分是多头注意力但在我们进入细节之前让我们先了解一个基本概念自我注意。 3. 1 自我注意机制 每个人脑海中可能出现的第一个问题注意力和自我注意力是不同的概念吗 是的他们是。咄 传统上注意力机制是为神经机器翻译任务而存在的如上一节所述。因此本质上应用了注意力机制来映射源句和目标句。当 seq-to-seq 模型逐个令牌执行翻译任务时注意机制可帮助我们在为目标句子生成标记 x 时识别源句子中的哪些标记需要更多关注。为此它利用编码器和解码器的隐藏状态表示来计算注意力分数并根据这些分数生成上下文向量作为解码器的输入。如果您想了解有关注意力机制的更多信息请跳到这篇文章精彩的解释 回到自我注意主要思想是计算注意力分数同时将源句子映射到自身。如果你有这样的句子 “男孩没有过马路因为它太宽了。 我们人类很容易理解上面句子中的“它”一词指的是“道路”但是我们如何使我们的语言模型也理解这种关系呢这就是自我关注的地方 在高层次上将句子中的每个单词与句子中的每个其他单词进行比较以量化关系并理解上下文。出于表示目的您可以参考下图。 让我们详细看看这种自我注意是如何计算的真实。 为输入句子生成嵌入 查找所有单词的嵌入并将它们转换为输入矩阵。这些嵌入可以通过简单的标记化和独热编码生成也可以通过嵌入算法如BERT等生成。输入矩阵的维度将等于句子长度 x 嵌入维度。我们称此输入矩阵为 X 以供将来参考。 将输入矩阵转换为QK和V 为了计算自我注意我们需要将X输入矩阵转换为三个新矩阵 - 查询 Q- 键 K- 值 V   为了计算这三个矩阵我们将随机初始化三个权重矩阵即WqWk和Wv。输入矩阵X将与这些权重矩阵WqWk和Wv相乘分别获得QK和V的值。在此过程中将学习权重矩阵的最佳值以获得更准确的QK和V值。 计算 Q 和 K 转置的点积 从上图中我们可以暗示 qi、ki 和 vi 表示句子中第 i 个单词的 Q、K 和 V 的值。 无花果。Q 和 K 转置的点积示例来源作者 输出矩阵的第一行将告诉您由 q1 表示的 word1 如何与使用点积的句子中的其余单词相关。点积的值越高单词越相关。为了直观地了解计算此点积的原因您可以在信息检索方面理解 Q查询和 K键矩阵。所以在这里 - Q 或查询 您正在搜索的术语 - K 或 Key 搜索引擎中的一组关键字与 Q 进行比较和匹配。 缩放点积 与上一步一样我们正在计算两个矩阵的点积即执行乘法运算该值有可能爆炸。为了确保这种情况不会发生并且梯度稳定我们将 Q 和 K 转置的点积除以嵌入维度 dk 的平方根。 使用 softmax 规范化值 使用 softmax 函数进行归一化将产生介于 0 和 1 之间的值。具有高比例点积的单元格将进一步升高而低值将减少使匹配的单词对之间的区别更加清晰。生成的输出矩阵可以视为分数矩阵S。 计算注意力矩阵 Z 将值矩阵或V乘以从上一步获得的分数矩阵S以计算注意力矩阵Z。 但是等等为什么要乘法 假设 Si [0.9 0.07 0.03] 是句子中第 i 个单词的分数矩阵值。将此向量与 V 矩阵相乘以计算 Zi第 i 个单词的注意力矩阵。 Zi [0.9 * V1 0.07 * V2 0.03 * V3] 我们是否可以说为了理解第 i 个单词的上下文我们应该只关注 word1即 V1因为注意力分数值的 90% 来自 V1我们可以清楚地定义重要的单词在这些单词中应该更加注意理解第i个单词的上下文。 因此我们可以得出结论一个词在Zi表示中的贡献越高单词之间的批判性和相关性就越大。 现在我们知道了如何计算自我注意力矩阵让我们了解多头注意力机制的概念。 3.2 多头注意力机制 如果您的分数矩阵偏向于特定的单词表示会发生什么它会误导您的模型结果不会像我们预期的那样准确。让我们看一个例子来更好地理解这一点。 S1“一切都很好” Z井 0.6 * V全部 0.0 * v是 0.4 * V井 S2“狗吃了食物因为它饿了” Z它 0.0 * V的 1.0 * V狗 0.0 * V吃 ...... 0.0 * V饥饿 在 S1 情况下在计算 Zwell 时对 Vall 给予了更多的重要性。它甚至比V好吧本身还要多。无法保证这有多准确。 在 S2 的情况下在计算 Zit 时所有的重要性都给了 Vdog而其余单词的分数也是 0.0包括 Vit。这看起来可以接受因为“it”这个词是模棱两可的。将它更多地与另一个词联系起来而不是将这个词本身联系起来是有意义的。这就是计算自我注意力的全部目的。处理输入句子中歧义单词的上下文。 换句话说我们可以说如果当前单词是模棱两可的那么在计算自我注意时可以更加重视其他单词但在其他情况下这可能会对模型产生误导。那么我们现在该怎么办 如果我们计算多个注意力矩阵而不是计算一个注意力矩阵并从中导出最终的注意力矩阵会怎样 这正是多头注意力的全部意义所在我们计算注意力矩阵z1z2z3.....zm的多个版本并将它们连接起来以得出最终的注意力矩阵。这样我们就可以对自己的注意力矩阵更有信心。 转到下一个重要概念 3.3 位置编码 在seq-to-seq模型中输入的句子被逐字输入到网络这允许模型跟踪单词相对于其他单词的位置。 但在变压器模型中我们遵循不同的方法。它们不是逐字逐句地输入而是并行馈送这有助于减少训练时间和学习长期依赖性。但是使用这种方法单词顺序就丢失了。但是要正确理解句子的含义词序非常重要。为了克服这个问题引入了一种称为“位置编码”P的新矩阵。 该矩阵 P 与输入矩阵 X 一起发送以包含与词序相关的信息。出于显而易见的原因X 和 P 矩阵的维度是相同的。 为了计算位置编码使用下面给出的公式。 fig。计算位置编码的公式来源作者 在上面的公式中 pos  单词在句子中的位置d  字/标记嵌入的维度i  表示嵌入中的每个维度 在计算中d 是固定的但 pos 和 i 会有所不同。如果 d512则 i ∈ [0 255]因为我们取 2i。 如果您想了解更多信息本视频将深入介绍位置编码。 转换器神经网络可视化指南 — 第 1 部分位置嵌入 我正在使用上述视频中的一些视觉效果来用我的话来解释这个概念。 无花果。位置编码向量表示来源作者 上图显示了位置编码向量的示例以及不同的变量值。 无花果。具有常数 i 和 d 的位置编码向量来源作者 fig。具有常数 i 和 d 的位置编码向量来源作者 上图显示了如果 i 是常量并且只有 pos 变化PEpos 2i 的值将如何变化。众所周知正弦波是一个周期函数倾向于在固定间隔后重复。我们可以看到 pos 0 和 pos 6 的编码向量是相同的。这是不可取的因为我们需要不同的位置编码向量来表示不同的 pos 值。 这可以通过改变正弦波的频率来实现。 无花果。具有不同 pos 和 i 的位置编码向量来源作者 随着i的值变化正弦波的频率也随之变化导致不同的波因此导致每个位置编码向量的值不同。这正是我们想要实现的目标。 位置编码矩阵P被添加到输入矩阵X并馈送到编码器。 无花果。将位置编码添加到输入嵌入来源作者 编码器的下一个组件是前馈网络。 3.4 前馈网络 编码器块中的这个子层是具有两个密集层和 ReLU 激活的经典神经网络。它接受来自多头注意力层的输入对同一层执行一些非线性变换最后生成上下文化向量。全连接层负责考虑每个注意力头并从中学习相关信息。由于注意力向量彼此独立因此它们可以以并行方式传递到变压器网络。 编码器块的最后一个也是最后一个组件是AddNorm组件。 3.5 添加和规范组件 这是一个残差层然后是层归一化。残差层确保在处理过程中不会丢失与子层输入相关的重要信息。而规范化层可促进更快的模型训练并防止值发生大量变化。 无花果。包含添加和规范层的编码器组件来源作者 在编码器中有两个添加层和规范层 将多头注意力子层的输入连接到其输出将前馈网络子图层的输入连接到其输出 至此我们总结编码器的内部工作。总结本文让我们快速回顾一下编码器使用的步骤 生成输入句子的嵌入或标记化表示。这将是我们的输入矩阵 X。生成位置嵌入以保留与输入句子的词序相关的信息并将其添加到输入矩阵 X 中。随机初始化三个矩阵WqWk和Wv即查询键和值的权重。这些权重将在变压器模型训练期间更新。将输入矩阵X与WqWk和Wv中的每一个相乘以生成Q查询K键和V值矩阵。计算 Q 和 K 转置的点积通过将其除以 dk 的平方根或嵌入维数来缩放乘积最后使用 softmax 函数对其进行归一化。通过将 V 或值矩阵乘以 softmax 函数的输出来计算注意力矩阵 Z。将此注意力矩阵传递给前馈网络以执行非线性转换并生成上下文化嵌入。 四、后记  在下一篇文章中我们将了解转换器模型的解码器组件的工作原理。这就是本文的全部内容。我希望你觉得它有用。如果你这样做了请不要忘记鼓掌并与您的朋友分享。
http://www.pierceye.com/news/258414/

相关文章:

  • 四川炜航建筑公司网站新郑网络推广外包
  • 网站建设名头网站项目建设方案
  • 可以用asp做哪些网站简历模板大学生免费
  • 公司 宜宾网站建设头条小程序
  • 大连h5建站学院网站建设申请报告
  • 大蒜做营销型网站贵州最好的网站建设推广公司
  • 单仁资讯做网站怎样备案网站应用服务
  • 如何生成一个网站怎么查看一个网站有没有做推广
  • 温州网站设计案例wdcp创建多个网站
  • 做个公司网站专业做网站app的公司
  • 动漫网站源码下载莱芜金点子最新招工信息
  • 小区住宅可以注册公司吗简述seo的概念
  • 做农村电商要多少钱南宁软件优化网站
  • 网站系统建设技术服务费网站建设 专项资金变更
  • 网站建设画册怎么用eclipse做网页
  • 百度网站安全检测平台广州番禺营销型网站建设
  • 杭州大的做网站的公司甘肃省住房和城乡建设部网站首页
  • 网站建设与网页设计考试题棋牌软件开发搭建
  • 短链接生成网址wordpress主叶SEO优化
  • 免费的cms视频网站做cpa怎么建立自己网站
  • 在哪里找做网站的北京的招聘网站有哪些
  • 做旅行网站aspx网站开发
  • 网站接入服务器商查询wordpress更换端口
  • 网站网页设计师武义县网站建设
  • 中铁建设集团有限公司官网建站到网站收录到优化
  • 做seo网站要多少钱网页设计师好吗
  • 建设部网站 绿色建筑评价表哪里页面设计培训好
  • 西部数码网站源码虹桥做网站公司
  • 生鲜网站开发wordpress mysql 链接
  • 做网站是怎么挣钱的网站建设福永附近网络公司