当前位置: 首页 > news >正文

排版素材网站蒙古文网站建设工作情况汇报

排版素材网站,蒙古文网站建设工作情况汇报,宝塔怎么做两个网站的解析,苏州网络公司哪家最好OpenAI在2022年11⽉份发布ChatGPT#xff0c;强⼤的⽂字对话、创意写作能⼒#xff0c;全球掀起了⼀ 波AI浪潮。本⽂对ChatGPT的技术原理、厉害之处、可能的落地⽅向等⽅⾯进⾏了全⾯ 的解析#xff0c;看完后会对ChatGPT有更深⼊的了解。 ⼀、前⾔ 2022年11⽉30⽇#x…OpenAI在2022年11⽉份发布ChatGPT强⼤的⽂字对话、创意写作能⼒全球掀起了⼀ 波AI浪潮。本⽂对ChatGPT的技术原理、厉害之处、可能的落地⽅向等⽅⾯进⾏了全⾯ 的解析看完后会对ChatGPT有更深⼊的了解。 ⼀、前⾔ 2022年11⽉30⽇ChatGPT发布5天内涌⼊100W⽤户。 他拥有持续的上下⽂对话能⼒同时⽀持⽂章写作、诗词⽣成、代码⽣成等能⼒。 如果⽤旧技术去理解他我们通常会认为他的背后是由复合Agent组合起来⽀撑的。 复合Agent是什么意思呢即有若⼲个术业有专攻的Agent有⼀个负责聊天对话的⼀ 个负责诗词⽣成的⼀个负责代码⽣成的 ⼀个负责写营销⽂案的等等等等。 每个Agent只擅⻓做⾃⼰的那部分事情⽽在⽤户使⽤的过程中系统会先判定⽤户的意 图是什么应该是哪个Agent然后再将⽤户的命令分发给对应的agent去解决并提供答 案。 因此看起来是很厉害的机器⼈背后其实是若⼲个术业有专攻的机器⼈。事实上Siri、⼩ 爱、⼩度⼩冰甚⾄包括各个平台的客服机器⼈都是这种模式。这样当你要上线⼀个新能 ⼒例如写古诗你只需要新增训练⼀个Agent然后将这个Agent接⼊到总控的分类 意图器下就⾏。 这也是当前时代的⼀个缩影不管外⾏⼈如何看待你从事的⾏业不管媒体是如何⼀次次 ⼈云亦云地说警惕AI取代⼈类你⼀直都知道你在做的只是训练出⼀个术业有专攻的机 器⼈⽽已离真正的⼈⼯智能⼗万⼋千⾥。 但ChatGPT的能⼒不再是这种模式了他所采⽤的模式是⼤语⾔模型Prompting。所有 的能⼒通过⼀个模型实现背后只有⼀个什么都会的机器⼈即⼤语⾔模型并⽀持⽤ 户借助⽂字下达命令即Prompting提⽰/指⽰。 虽然这种能⼒的表现还不算完美但是他开启了⼀条⼀种通向“通⽤型⼈⼯智能”的道路 曾经科幻故事⾥的Jarvismoss好像真的有了那么⼀点可能。⽽这才是7年前我踏⼊这 个⾏业所憧憬的东⻄啊。 可能你对我的震撼有点⽆法理解我接下来会讲明⽩他的技术原理带你慢慢感知这项技 术的厉害之处。 ⼆、ChatGPT原理 ⾸先我们要弄明⽩NLP任务⾃然语⾔处理AI的⼀个技术领域即⽂本类的AI任 务的核⼼逻辑是⼀个“猜概率”的游戏。 ⽐如说“我今天被我⽼板___”经过⼤量的数据训练后AI预测空格出会出现的最⾼概 率的词是“CPU了”那么CPU就会被填到这个空格中从⽽答案产⽣——“我今天被我⽼ 板CPU了”。 虽然⾮常不可思议但事实就是这样现阶段所有的NLP任务都不意味着机器真正理解 这个世界他只是在玩⽂字游戏进⾏⼀次⼜⼀次的概率解谜本质上和我们玩报纸上的 填字游戏是⼀个逻辑。只是我们靠知识和智慧AI靠概率计算。 ⽽在⽬前的“猜概率”游戏环境下基于⼤型语⾔模型LLMLarge Language Model演 进出了最主流的两个⽅向即Bert和GPT。 其中BERT是之前最流⾏的⽅向⼏乎统治了所有NLP领域并在⾃然语⾔理解类任务中 发挥出⾊例如⽂本分类情感倾向判断等。 ⽽GPT⽅向则较为薄弱最知名的玩家就是OpenAI了事实上在GPT3.0发布前GPT⽅ 向⼀直是弱于BERT的GPT3.0是ChatGPT背后模型GPT3.5的前⾝。 接下来我们详细说说BERT和GPT两者之间的差别。 BERT双向 预训练语⾔模型fine-tuning微调 GPT⾃回归 预训练语⾔模型Prompting指⽰/提⽰ 每个字都认识连到⼀起就不认识了是吗哈哈。没关系接下来我们把这些术语逐个拆解 ⼀遍就懂了。 1、什么是“预训练模型” 我们通常认知⾥的AI是针对具体任务进⾏训练。例如⼀个能分辨猫品种的Agent需要 你提供A-缅因猫B-豹猫这样的数据集给他让它学习不同品种之间的特征差异从⽽学 会分辨猫品种这项能⼒。 但⼤语⾔模型不是这样运作的他是通过⼀个⼤⼀统模型先来认识这个世界。再带着对这 个世界的认知对具体领域进⾏降维打击。 在这⾥让我们先从从NLP领域的中间任务说起。像中⽂分词词性标注NER句法分 析等NLP任务。他们本⾝⽆法直接应⽤不产⽣⽤户价值但这些任务⼜是NLP所依赖 的所以称之为中间任务。 在以前这些中间任务都是NLP领域必不可少的。但是随着⼤型语⾔模型的出现这些中 间任务事实上已经逐步消亡。⽽⼤型语⾔模型其实就是标题中的“语⾔预训练模型”。 他的实现⽅式是将海量的⽂本语料直接喂给模型进⾏学习在这其中模型对词性、句法 的学习⾃然⽽然会沉淀在模型的参数当中。我们看到媒体对ChatGPT铺天盖地的宣传⾥ 总是离不开这样⼀句话——在拥有3000亿单词的语料基础上预训练出的拥有1750亿参数 的模型。 这⾥⾯3000亿单词就是训练数据。⽽1750亿参数就是沉淀下来的AI对这个世界的理解 其中⼀部分沉淀了Agent代理、中间⼈对各类语法、句法的学习例如应该是两个馒 头⽽不是⼆个馒头这也是中间任务为什么消亡的原因。⽽另外⼀部分参数参数则储 存了AI对于事实的认知例如美国总统是拜登。 也就是经过预训练出⼀个这样的⼤语⾔模型后AI理解了⼈类对语⾔的使⽤技巧句法、 语法、词性等也理解了各种事实知识甚⾄还懂得了代码编程并最终在这样的⼀个 ⼤语⾔模型的基础上直接降维作⽤于垂直领域的应⽤例如闲聊对话代码⽣成⽂章 ⽣成等。 ⽽BERT和GPT两者都是基于⼤语⾔模型的他们在这⼀点上是相同的。他们的不同在于 双向/⾃回归fine-tuning/Prompting这两个维度我们接下来会重点弄明⽩这四个术语。 2、猜字谜的两种⽅式,BERT、GPT BERT 和 GPT 都是基于 Transformer ⽹络架构和预训练语⾔模型的思想⽽提出的。 它们都可以在不同语⾔任务上达到最先进的⽔平。BERT 和 GPT 展⽰了预训练语⾔模型 对于⾃然语⾔理解和⽣成任务的巨⼤潜⼒在诸多任务中取得了突破性进展。 BERT全称为 Bidirectional Encoder Representations from Transformers是由 Google AI Language 团队在 2018 年提出的预训练语⾔模型。它主要⽤于⾃然语⾔理解具体应 ⽤如下问答系统、句⼦相似度⽐较、⽂本分类、情感分析、命名实体识别等。BERT 的 训练过程分为预训练和微调两部分。预训练是 BERT 模型的基础部分它包括使⽤⼤量 的⽂本来训练语⾔模型。微调过程是在预训练模型的基础上使⽤更⼩的标记数据来调整 模型参数。 BERT是“双向”预训练法是指这个模型在“猜概率的时候”他是两个⽅向的信息利⽤起 来同时猜测。例如“我__20号回家”他在预测的时候是同时利⽤“我”“20号回家”两端的 信息来预测空格中的词可能为“打算”。有点像我们做英⽂的完形填空通常都是结合空格 两端的信息来猜测空格内应该是哪个单词。 GPTGenerative Pre-trained Transformer则是由 OpenAI 研究团队在 2018 年提出的 ⼀种语⾔模型。它能够完成各种⾃然语⾔处理任务在⽂本⽣成⽅⾯表现尤为优秀可以 ⽣成各种类型的⽂本如⽂章、诗歌、对话等。其主要具体应⽤如下⽂本⽣成、⽂本⾃ 动完成、语⾔翻译、对话⽣成、摘要⽣成等。 ⽽GPT使⽤的是“⾃回归”预训练法就是猜概率的时候从左往右做预测不会利⽤⽂本中 右侧的内容和BERT相反。这就有点像我们写作⽂的时候我们肯定是⼀边写⼀边想。 BERT 和 GPT 的主要区别在于它们所采⽤的预训练⽅法不同。BERT 是使⽤双向的预训 练⽅法即同时预测⽂本中的上下⽂信息⽽ GPT 是使⽤单向的⾃回归预训练⽅法即 从前到后⽣成下⼀个单词或句⼦。这意味着 BERT 可以更好地处理需要理解整个句⼦或 段落的任务⽽ GPT 则更适合⽣成下⼀个单词或句⼦两者基本理念的区别导致BERT 在之前更擅⻓⾃然语⾔理解类任务⽽GPT更擅⻓⾃然语⾔⽣成类任务例如聊天、写 作⽂。——注意我说的是之前后⾯的章节我会介绍现在的情况发⽣了什么变化。 BERT和GPT各⾃优缺点: BERT优点:性能优越,⼴泛应⽤于NLP下游任务。缺点:⽆法直接⽣成⻓⽂本。 GPT优点:语⾔⽣成和理解能⼒强,可⽣成⻓连贯⽂本。缺点:性能不及BERT,表现不太稳 定。 BER Trepresents语义信息更加丰富,是⽬前最优秀的语⾔表⽰模型。但⽣成能⼒受限。 GPT⽣成效果更⾃然,语义和语法更加连贯,但对语义理解仍略显不⾜,对 DOMAIN 敏感度 ⾼。 BERT和GPT各有优缺点,实际应⽤中通常会根据具体任务选择使⽤BERT还是GPT,亦或是 将⼆者结合,发挥各⾃的优势,达到最佳效果。 3、微调 vs 提⽰(咒语) 假设现在预训练好的⼤模型要针对具体领域⼯作了他被安排成为⼀名鉴⻩师要分辨⽂ 章到底有没有在搞⻩⾊。那么BERT和GPT的区别在哪⾥呢 BERTfine-tuning微调。微调是指模型要做某个专业领域任务时需要收集相关的 专业领域数据做模型的⼩幅调整更新相关参数。 例如我收集⼀⼤堆标注数据A-是⻩⾊B-没有搞⻩⾊然后喂给模型进⾏训练调整 他的参数。经过⼀段时间的针对性学习后模型对于分辨你们是否搞⻩⾊的能⼒更出⾊ 了。这就是fine-tuning⼆次学习微调。 GPTPrompting。prompt是指当模型要做某个专业领域的任务时我提供给他⼀些⽰ 例、或者引导。但不⽤更新模型参数AI只是看看。 例如我提供给AI模型10张⻩⾊图⽚告诉他这些是搞⻩⾊的。模型看⼀下效果就提 升了。⼤家可能会说这不就是fine-tuning吗不是⼀样要额外给⼀些标注数据吗 两者最⼤的区别就是这种模式下模型的参数不会做任何变化升级这些数据就好像仅 仅是给AI看了⼀眼——嘿兄弟参考下这个但是别往⼼⾥去。 不可思议吧但他成功了⽽更令⼈疯狂的是到⽬前为⽌关于prompt明明没有对参 数产⽣任何影响但确实⼜明显提升了任务的效果还是⼀个未解之谜。暂时⽽⾔⼤家就 像程序员对待bug⼀样——I don’t know why , but it work lol. 这种Prompt其实就是ICTin-Context Learning或者你也可以称为Few shot Promot⽤⼤⽩话说就是“给你⼀点⼩提⽰”。 同时还有另外⼀种Promot称之为Zero shot Promot。ChatGPT就是Zero shot promot模 式⽬前⼀般称之为instruct了。 这种模式下⽤户直接⽤⼈类的语⾔下达命令例如“给我写⾸诗”“给我做个请教条”但 是你可以在命令的过程中⽤⼀些⼈类语⾔增强AI的效果例如“在输出答案之前你先每 ⼀步都想⼀想”。就只是增加这样⼀句话AI的答案效果就会明显提升。 你可能会问这是什么魔法咒语 有⼀个⽐较靠谱的猜测是这句话可能让AI回想起了学习的资料中那些推理知识好像前⾯都 会有这句话。 然后这⼀切莫名激活起了他死去的记忆不⾃觉开始仿造那些严密的推理过程中⼀步步推 导。⽽这些推导会将⼀个复杂问题分解成若⼲⼦问题AI因为对这些⼦问题的推导从⽽ 导致最终答案效果提升。 综上对⽐下来你会发现好像GPT这种模式⽐起BERT模式更符合我们对⼈⼯智能的想 象通过海量的知识成⻓起来然后经过稍微引导Prompt他就能具备不同领域的 强⼤能⼒。 最后总结⼀下ChatGPT背后的GPT模型是什么 在⼀个超⼤语料基础上预训练出的⼤语⾔模型LLM采⽤从左到右进⾏填字概率预 测的⾃回归语⾔模型并基于prompting提⽰来适应不同领域的任务。 如果只基于上⾯的描述你可能⼤概弄懂了他背后的原理但是对于为什么他这么⽜逼 你仍然⽆法理解。没关系我们接着进⼊第4节
http://www.pierceye.com/news/312152/

相关文章:

  • 网站如何做三端适配wordpress get_the_author_meta
  • 个人介绍微电影网站模板网站制作策划
  • 怎么在网上注册自己的网站网站框架建设
  • 哪个网站做自媒体比较好广西模板十大名牌排名榜
  • 苏州手机网站制作建设视频网站费用
  • 301的网站用什么来做为企业为什么做网站
  • wordpress怎安装关键词优化排名易下拉排名
  • 怎么做网站评估android安卓软件下载
  • 网站建设设计培训班南昌广告公司
  • 网站问责建设书企业网站建设 百度文库
  • 佛山网站建设seo优化建设电子商务系统网站
  • 网站建设功能分为几种购物网站的后台做哪些东西
  • 2017网站建设费用wordpress不使用ip访问
  • 水务 网站建设宁波建站模板系统
  • 方正集团网站是谁做的北京最新发布信息
  • iis7.5添加php网站wordpress内容页自定义字段
  • 设计公司做网站价格图片网站收录
  • 网站做315认证广州中医药资源门户网站
  • 线上营销网站设计网站着陆页有多少个
  • 天津通用网站建设方案聊城做网站的地方
  • 政务网站建设合同dw个人网站模板下载
  • 广州网站优化服务商企业网站建设一站式服务
  • 蓝海电商怎么做广州短视频seo哪家好
  • 泸州住房和城乡建设厅网站怎么自己做微网站吗
  • 做网站上传图片自己怎么建设网站首页
  • 西安空调销售网站建设wordpress 谷歌地图
  • 网站建设投标书范本wordpress防广告屏蔽
  • 设计个人网站的步骤建设工程合同无效的情形有哪些
  • 网站竞争对手的选定一般参考什么标准的建设网站长沙
  • 通州个人做网站营销型网站建设开发