当前位置: 首页 > news >正文

网站 活动页面深圳石岩小学网站建设

网站 活动页面,深圳石岩小学网站建设,新加坡互联网公司排名,武山建设局网站WHY does BERT work#xff1f; BERT会考虑上下文#xff01; 进行Word Embedding#xff01;将一个单词表示成向量#xff0c;比如苹果单词中的“果”和苹果公司中的“果”#xff0c;在经过Embedding后虽然同样是同一个词#xff0c;但是由于上下文不同#xff0c;所…WHY does BERT work BERT会考虑上下文 进行Word Embedding将一个单词表示成向量比如苹果单词中的“果”和苹果公司中的“果”在经过Embedding后虽然同样是同一个词但是由于上下文不同所以vector距离是远的 不一样的表示 但是相同语境的“果”则距离比较近 接下来我们计算两个果的相似度 可以看出对角的关系还是比较近的 为什么你能知道一个单词的意思呢 这个人说了 你要知道一个单词的意思就得根据它的上下文决定的 所以即使你将该单词盖住这个单词还是会被预测出。 在BERT之间其实已经有该技术了就是word Embeddingword Embedding是一个简单的模型就是两个Transformer 有人就问为什么只是Transformer不能是其它的更加复杂的结构为什么只是linear不能是deep learning 因为只是因为算力的问题 Multi-lingual BERT 这有啥特别之处呢 就是你会将加入不同语言的输入 我们通过使用不同的语言的单词训练模型在该模型English的QA上进行Fine-tune训练模型时居然可以回答中文问题 可以看到即便是在English上fine-tune的Bert模型最终回答中文问题准确率也可以达到78% 为什么会这样呢 因为在预训练的时候不同语言但是相同的词汇在经过Bert后距离很近 我们通过实验来验证两种语言的word embedding的距离 其中MRR就是这个指标它的值越大表明两个语言越接近 起初我们使用的是200k句子来做实验但是各种调参都没发现模型更好的效果 但是后面想是不是句子的规模不够 索性增加到1000k发现模型的效果很好 但是还是感觉怪怪的! 因为你在做语言填空的时候你将汉语输入Bert里它给你补全了汉语 你用英语输入Bert里它给你不劝了英语它不会给你互相补充。 这说明句子与句子之间还是有差距的 我们通过计算两种语言之间的总体的差距并表示成向量 之后再在Bert后加向量就是最后的结果 后面的是真实的实例 这是无监督的
http://www.pierceye.com/news/456543/

相关文章:

  • 江苏建设通网站创业项目
  • 亚马逊电商网站南通做网络网站
  • 做网站交易装备可以么上海企业信息查询公示系统
  • 浙江网站建设而梦幻西游源码论坛
  • 网站建设类织梦模板做网站 对方传销
  • 做外贸比较好的网站莱芜信息港房产网
  • 胶州建设局网站做电影网站怎样赚钱
  • 物流的网站模板免费下载网站你懂我意思正能量晚上下载
  • 做外贸的阿里巴巴网站是哪个更好网络宣传网站建设价格
  • 网站入侵怎么做网站开发相关英文单词
  • 实验室网站建设方案阳西网络问政平台官网
  • 岳阳网站开发建设网站域名注册申请
  • 营销型网站建设ppt网站程序开发后怎么上线
  • 鞍山做网站哪家好制作网站技术
  • 中国建设银行山西省分行网站wordpress永久免费
  • 设计网络网站做国外网站 国外人能看到吗
  • 融安有那几个网站做的比较好的创建网站大约
  • 浙江联科网站建设选择宁波seo优化公司
  • 上海建站网络科技app营销策略有哪些
  • 怎么检查网站有没有被挂马知乎做笔记的网站
  • 温岭网站制作爱网站查询
  • 徐州学习网站建设影视公司组织架构
  • 怎么看别人的网站有没有做301蓝色扁平化企业网站
  • 郑州建站模板网络程序员
  • 健身顾问在哪些网站做推广北京网络推广外包公司排行
  • 天津网站开发工资水平建设网站如何写文案
  • 做a漫画在线观看网站注册个免费网站
  • 杭州网站设计网页长安东莞网站推广
  • 福州网站建设软件怎样上传自己的网站
  • wordpress手机站如何做wordpress 查询文章