当前位置: 首页 > news >正文

小学学校网站建设情况山西网站建设免费

小学学校网站建设情况,山西网站建设免费,网站空间查询工具,陕西省建设厅网站首页前言 自然语言处理是人工智能的一个分支。在自然语言处理领域#xff0c;有两个相当著名的大语言模型——BERT和GPT。两个模型是同一年提出的#xff0c;那一年BERT以不可抵挡之势#xff0c;让整个人工智能届为之震动。据说当年BERT的影响力是GPT的十倍以上。而现在#…前言 自然语言处理是人工智能的一个分支。在自然语言处理领域有两个相当著名的大语言模型——BERT和GPT。两个模型是同一年提出的那一年BERT以不可抵挡之势让整个人工智能届为之震动。据说当年BERT的影响力是GPT的十倍以上。而现在由GPT-3.5模型产生的chatGPT则以一己之力让整个世界重新认识了人工智能。现在用妇孺皆知来形容chatGPT一点也不为过。是什么让GPT在后来完成复仇碾压BERT模型这篇文章带你了解这两个模型的“恩恩怨怨”。 自然语言处理背景 自然语言处理Natural Language Processing简称NLP是人工智能领域的一个重要方向。NLP主要处理四类任务分别是序列标注、文本分类任务、句子关系判断和生成式任务。 序列标注是NLP中最基础的任务应用十分广泛如词性标注、命名实体识别、语义角色标注等实质上都属于序列标注的范畴。 文本分类任务是NLP中的经典问题包括主题分析和情感分析等。 句子关系判断任务的输入是两个句子输出是句子间的关系常用的判别有语义相似度、语义关系推理蕴含/中立/矛盾、问答对匹配、搜索相关性排序等。 生成式任务包括对话生成、摘要生成、机器翻译等。 其中生成式任务就是我们的chatGPT最擅长的任务。我们问它问题它可以自动生成回答。 自然语言处理的一些早期处理方法铺垫 在计算机领域我们一般不喜欢文字更喜欢数字。所以怎么把文字转换成计算机可以理解的数字就是一个很重要的问题。 独热编码 比较早的转换方式是独热编码one-hot encoding。独热编码的处理方式是把N个要处理的字或者单词转换为一个N维向量第 i i i个字转换后的向量为 ( 0 , 0 , … , 0 , 1 , 0 , … , 0 , 0 ) (0,0,\dots,0,1,0,\dots,0,0) (0,0,…,0,1,0,…,0,0)其中第 i i i维为1其它维都是0。这样的弊端也非常明显那就是当处理的字数比较多的时候维数会非常高。比如中国有约10万个汉字为了表示这些汉字需要10万的向量。这显然是我们无法接受的。 word2vec模型 2013年google提出了word2vec模型。这个模型的提出使得NLP进入神经网络时代。顾名思义这个模型就是专门把单词或者字转换成向量的模型。通过这个模型给每个单词赋予了一个低维向量。且意思相近的单词之间其向量的距离也会越近。向量的每一维也不再是0或1而是一个0-1之间的实数。这种把高维的文字表示成低维的向量的方式叫做词嵌入word embedding。这样的一个最大的缺点是无法识别多义词。因为一个词在不同的上下文中所表达的意思可能是不一样的而静态的向量没有办法处理这些情况。 特征提取器 神经网络、深度学习最擅长的事情就是提取特征。而在NLP领域字与字之间会有一些特征句与句之间也会有一些特征可以把这些特征统称为语言学知识。而我们要做的就是找到一个优秀的特征提取器把这些语言学知识提取出来。常见的特征提取器有RNN循环神经网络、LSTMRNN的一种特殊形式、CNN卷积神经网络、Transformer。Transformer是目前最好的特征提取器。Transformer就像其另一个霸气的名字“变形金刚”一样被更多人研究并不断地变化。 自然语言处理元年正文 我们的故事要从2018年开始。2018年被称为自然语言处理元年。这一年许多重要模型相继发布为NLP带来了里程碑式的进展。这一年无监督预训练微调的模式开始流行。这些重要的模型中就包含我们的主角BERT模型和GPT模型。 ELMo模型配角登场 2018年3月ELMo模型被提出。ELMo模型基于LSTM这个特征提取器采用双向训练的模式会根据上下文的含义来动态产生表示这个词的向量解决了word2vec不能表示多义词的弊端。ELMo模型先让模型在大量无标注数据集上进行训练通过双向LSTM提取数据特征学习到基本的语言学特征。当应用于下游任务时只需要给少量的有标注数据集进行训练模型就能达到不错的效果。这种模式称为预训练微调这种模式也被GPT和BERT所采用。无标注数据集的获取相对来说较容易所以这种无监督预训练微调也逐渐流行。 GPT模型男主登场 2018年6月GPT诞生了。GPT (Generative Pre-Training Transformer) 是 OpenAI GPT 系列的开山之作。 从名字上可以看出GPT是基于Transformer的生成式预训练模型。它主要处理的是自然语言处理四大任务中的生成式任务。因为在做生成式任务时是看不到下文的只能给出上文来生成下文所以像ELMo这种双向训练的模式不适合GPT。 Transformer以其卓越的性能击败了LSTMGPT也以优异的表现战胜了ELMo。 BERT模型男二登场 2018年10月BERT模型横空出世BERT当年的成绩可谓是拳打ELMo脚踩GPT霸占了各大自然语言处理榜单的榜首。而且在后面几年BERT的追随者越来越多衍生出了一系列跟BERT相关的模型比如RoBERTa、SpanBERT、ALBERT、MacBERT等等大家都在BERT的基础上进行优化。BERT的影响力可见一斑。 关于BERT前亚马逊首席科学家李沐曾在2021年11月说过“如果对自然语言处理在过去三年里面最重要的文章做排序的话你把BERT排在第二的位置那么很难有另外一篇论文能够名正言顺地排在第一的位置。BERT及后续的一系列文章使得自然语言处理在过去三年里面有一个质的飞跃。” 那么BERT为什么这么厉害呢因为BERT结合了ELMo和GPT的优势。相比于ELMoBERT把特征提取器换成了更加厉害的Transformer当然还有其它的一些改变但是这里略过。相比于单向训练的GPT它采取了双向训练的方式使得其产生的向量更加贴合上下文的意思。 GPT VS BERT决战 和GPT相比BERT所使用的掩码语言模型任务Masked Language Model虽然让它失去了直接生成文本的能力但换来的是双向编码的能力这让模型拥有了更强的文本编码性能直接的体现则是下游任务效果的大幅提升。而GPT为了保留生成文本的能力只能采用单向编码。以当年的眼光来看BERT绝对是一个更加优秀的模型。因为既然BERT和GPT两者都是采用预训练微调的范式并且下游任务依然是分类、匹配、序列标注等等经典的NLP任务形式那么像BERT模型这种更注重特征编码的质量下游任务选一个合适的损失函数去配合任务做微调显然比GPT这种以文本生成的方式去迂回地完成这些任务更加直接。从BERT模型出来以后无监督训练下游任务微调的范式便奠定了它的霸主地位各类沿着BERT的思路琢磨如何获得更好的文本特征编码的方法大量涌现以至于GPT这个以生成式任务为目标的模型显得像一个异类。马后炮地说如果当时OpenAI顺应大势放弃生成式预训练这条路也许我们要等更长的时间才能见到ChatGPT这样的模型。 总结 在自然语言处理四大任务中GPT更擅长生成式任务而BERT更擅长其它三个。而在如今以对话任务为代表的生成式任务成为了主流且随着参数量的增大GPT系列的效果也越来越好这也是GPT后来能打败BERT的重要原因吧。 参考文章 自然语言处理技术的模型和任务 OpenAI是如何胜过谷歌的ChatGPT发展简史 语言大模型的进化轨迹 ChatGPT的前世今生OpenAI的技术“执拗”与“豪赌”
http://www.pierceye.com/news/108339/

相关文章:

  • 网站图片动态换名网站充值支付宝收款怎么做
  • 蜘蛛网是个什么网站做特卖的购物网站
  • 从零学做网站古典 网站模板
  • h5网站模板开发网站后台哪些功能需要前端配合
  • 网站建设 宜宾佛山企业网站自助建站
  • 苏宁易购网站建设 的定位手机网站制作招聘
  • 个人网站备案申请360老是提示危险网站
  • 建网站哪个好 优帮云自己怎么注册域名
  • 做3ds磁铁卡网站大连旅顺博物馆
  • 邢台市住房和城乡建设局网站大连网站推广机构
  • 网站建设开标书房地产网页设计
  • 中国建设建设工程造价管理协会网站建设视频网站要求吗
  • 商务网站教程深圳定制纸箱
  • 湖南手机版建站系统哪家好自己做网站地图
  • 天津网站制作报价阿里云需要网站建设方案书
  • 做最好的美食分享网站网站建设客户需求分析
  • 如何重建网站广州市服务好的网站制作排名
  • 做一名优秀网站设计师计划网站描述怎样写
  • 网页二级网站怎么做网监关闭的网站怎么恢复
  • 甘肃省建设监理协会 官方网站国内知名公关公司
  • 如何将网站和域名绑定阿里云1M做网站
  • 南城网站建设公司咨询东莞智通人才网最新招聘
  • app建设网站公司哪家好php网站修改代码
  • 哪些网上订餐的网站做的好地情网站建设
  • 重庆推广网站的方法国内最近的新闻大事
  • 网站需要备案吗网站怎么推广软文
  • 做设计开哪个素材网站的会员好手机免费网站建设哪家公司好
  • 征婚网站认识的男人做定投保做高级电工题的网站
  • 学做饼干的网站汕头建设学校的网站
  • asp.net做网站原理工资卡app下载