当前位置: 首页 > news >正文

建设企业网站专业服务网站建设推广入什么费用

建设企业网站专业服务,网站建设推广入什么费用,营销型企业网站例子,亚马逊紫鸟超级浏览器参考B站#xff1a;09 Transformer 之什么是注意力机制#xff08;Attention#xff09; 1. 注意力机制#xff08;Attention#xff09; 红色的是科学家们发现#xff0c;如果给你一张这个图#xff0c;你眼睛的重点会聚焦在红色区域 人–》看脸 文章看标题 段落看…参考B站09 Transformer 之什么是注意力机制Attention 1. 注意力机制Attention 红色的是科学家们发现如果给你一张这个图你眼睛的重点会聚焦在红色区域 人–》看脸 文章看标题 段落看开头 后面的落款 这些红色区域可能包含更多的信息更重要的信息 注意力机制我们会把我们的焦点聚焦在比较重要的事物上 Q、K、V 我查询对象 Q这张图被查询对象 V图中包含的模块K。 我看这张图第一眼我就会去判断哪些东西对我而言更重要哪些对我而言又更不重要去计算 Q 和 V 里的事物的重要度 重要度计算其实是不是就是相似度计算更接近点乘其实是求内积数学中的原理两个矩阵点乘得到的值越大证明两个矩阵越相似。 Q 、 K k 1 k 2 ⋅ ⋅ ⋅ k n Q、Kk_1k_2···k_n Q、Kk1​k2​⋅⋅⋅kn​ 通过点乘的方法计算Q 和 K 里的每一个事物的相似度就可以拿到 Q 和 k 1 k1 k1的相似值 s 1 s1 s1Q 和 k 2 k2 k2的相似值 s 2 s2 s2Q 和 k n kn kn的相似值 s n sn sn. 进一步做 s o f t m a x s 1 , s 2 , ⋅ ⋅ ⋅ , s n softmaxs_1,s_2,···,sn softmaxs1​,s2​,⋅⋅⋅,sn便可以得到概率值 a 1 a 2 ⋅ ⋅ ⋅ a n a_1a_2···a_n a1​a2​⋅⋅⋅an​。 我们还得进行一个汇总当你使用 Q 查询结束了后Q 已经失去了它的使用价值了我们最终还是要拿到这张图片的只不过现在的这张图片它多了一些信息多了于我而言更重要更不重要的信息在这里。 V ( v 1 v 2 ⋅ ⋅ ⋅ v n a 1 a 2 ⋅ ⋅ ⋅ a n • v 1 v 2 ⋅ ⋅ ⋅ v n ( a 1 ∗ v 1 a 2 ∗ v 2 ⋅ ⋅ ⋅ a n ∗ v n ) V ′ V (v_1v_2···v_na_1a_2···a_n•v_1v_2···v_n(a_1*v_1 a_2*v_2 ··· a_n*v_n ) V V(v1​v2​⋅⋅⋅vn​a1​a2​⋅⋅⋅an​•v1​v2​⋅⋅⋅vn​(a1​∗v1​a2​∗v2​⋅⋅⋅an​∗vn​)V′ 这样的话就得到了一个新的 V’这个新的 V’ 就包含了哪些更重要哪些不重要的信息在里面然后用 V’ 代替 V。一般 KV。 理解 注意力机制就是接收一个输入的东西模型里面可能是特征利用注意力机制找出图像中和该特征最相似的区域该区域应该是提取出特征的区域我们应该更加关注。 Transformer之自注意力机制self-Attention Self-Attention 的关键点在于 K≈V≈Q 来源于同一个 X这三者是同源的。 通过 X 找到 X 里面的关键点。 并不是 KVQX而是通过三个参数 W Q , W K , W V W_Q,W_K,W_V WQ​,WK​,WV​,接下来的步骤和注意力机制一模一样。 1.Q、K、V的获取 这里的 q 1 q_1 q1​ q 2 q_2 q2​ 是由 x 1 x_1 x1​ x 2 x_2 x2​ 与 W Q W_Q WQ​ 相乘得到的 k 1 k_1 k1​ k 2 k_2 k2​ 是由 x 1 x_1 x1​ x 2 x_2 x2​ 与 W K W_K WK​ 相乘得到的 v 1 v_1 v1​ v 2 v_2 v2​ 是由 x 1 x_1 x1​ x 2 x_2 x2​ 与 W V W_V WV​ 相乘得到的 这里的Q、K、V都来自于 x 1 x_1 x1​ x 2 x_2 x2​ 所以是同源的。 2. Matmul Q、K点乘这里会和每个k进行点乘 这里会先进行Q、K相乘得到其相似值。 3.ScaleSoftmax对Q、K点乘结果进行softmax 将Q、K相乘的相似值通过softmax转为概率。 4. Matmul得到的V1并通过V1得到Z1 将前面softmax得到的概率值0.88再与 v 1 v_1 v1​相乘 v 1 ∗ 0.88 v_1*0.88 v1​∗0.88 得到一个新的向量值 v 1 v_1 v1​。 此时的 v 2 v_2 v2​的概率值是0.12 v 2 ∗ 0.12 v_2*0.12 v2​∗0.12 得到一个新的向量值 v 2 v_2 v2​。 最终的 z 1 v 2 v 2 z_1 v_2 v_2 z1​v2​v2​, z 1 z_1 z1​ 中包含了 v 1 v_1 v1​和 v 2 v_2 v2​的信息。 z 1 z_1 z1​表示的就是 thinking 的新的向量表示对于 thinking初始词向量为 x 1 x_1 x1​。 现在我通过 thinking machines 这句话去查询这句话里的每一个单词和 thinking 之间的相似度新的 z 1 z_1 z1​依然是 thinking 的词向量表示只不过这个词向量的表示蕴含了 thinking machines 这句话对于 thinking 而言哪个更重要的信息。 举个例子 这里的 its 做了自注意力其包含了这句话所有词的信息并且对Law的相似度最高所以这里的its最有可能代表its。 但是如果不做自注意力这里的 its 就是单纯的三个字母 its并没有包含任何信息。 也就是说 its 有 law 这层意思而通过自注意力机制得到新的 its 的词向量则会包含一定的 laws 和 application 的信息 自注意力矩阵表示 Q 、K、V的获取 Z矩阵的获取 Z矩阵的表示 最终Z矩阵中就有每个单词和每个单词联系的概率值。
http://www.pierceye.com/news/376272/

相关文章:

  • 巨鹿县住房与城乡建设厅网站wordpress内容付费插件
  • 网站设计建设维护wordpress 仿搜狗百科
  • 做网站写的代号好跟不好的区别中国500强企业官网
  • html个人网站wordpress 后台 字数统计
  • 网站开发包括哪些技术网站后台框架模版
  • 济南地产行业网站开发长春网络推广
  • 网站建设全程揭秘网站建设费能抵扣吗
  • 网站开发用什么语言最安全网站的ftp在哪里可以查到
  • 物理结构网站我国网站建设现状
  • 毕设如何做网站tk网站免费
  • 做logo的著名网站一起做网商网站怎么样
  • 楼盘销售管理网站开发资源网站界面设计形考
  • 哪个网站做视频挣钱网络推广方案下拉管家微xiala11
  • 天津营销型网站建设费用来宾绍兴seo网站托管方案
  • 哈尔滨网站制作工程上海网站快速优化排名
  • 兰州网站制作怎么样质量好网站建设公司
  • wordpress全站cdn ssl商务局网站溪江农贸市场建设
  • 花都网站开发公司做一个安卓app多少钱
  • 优秀的电子商务网站网页设计与制作的实训报告怎样写
  • 素材网站做一家网站费用
  • 找哪些公司做网站seo网络优化师就业前景
  • 手机商城网站案例高中男女做那个视频网站
  • 凡客诚品网站航天桥网站建设
  • 烟台网站建设力推企汇互联见效付款网站收录大幅度下降
  • 五河网站建设哪家好百度seo优化服务
  • 城乡住房和城乡建设部网站首页wordpress简历
  • 域名注册网站搭建深圳市宝安区建设局网站
  • 手机网站建设价格是多少湖北省建设规划网站
  • 单位建设网站硬件网站建设的规模设想
  • 白云区网站开发广州番禺最新通告