当前位置: 首页 > news >正文

搜狗网站做滤芯怎么样物流信息平台网站建设

搜狗网站做滤芯怎么样,物流信息平台网站建设,网站建设培训的心得,创业平台网站提示1#xff1a;本篇博客中涉及4篇相关论文#xff0c;预计阅读时间10分钟#xff0c;望各位友友耐心阅读#xff5e; 提示2#xff1a;本篇所有涉及的论文已打包发布#xff0c;不需要任何积分即可下载#xff0c;指路 -- 论文集下载地址 大模型技术-思维链CoT …提示1本篇博客中涉及4篇相关论文预计阅读时间10分钟望各位友友耐心阅读 提示2本篇所有涉及的论文已打包发布不需要任何积分即可下载指路 -- 论文集下载地址 大模型技术-思维链CoT 思维链综述思维链的构造方法01-Manual Prompting论文阅读-思维链的构造方法02-Automatic Construction-01 文章目录 大模型技术-思维链CoT前言一、涉及论文二、论文要点详解2.1 Large Language Models are Zero-Shot Reasoners2.1.1 提出问题2.1.2 解决问题2.1.3 效果及展望 2.2 Plan-and-Solve Prompting: Improving Zero-Shot Chain-of-Thought Reasoning by Large Language Models2.2.1 提出问题2.2.2 解决问题2.2.3 效果及展望 2.3 Automatic Chain of Thought Prompting in Large Language Models2.3.1 提出问题2.3.2 解决问题2.3.3 效果及展望 2.4 Reprompting: Automated Chain-of-Thought Prompt Inference Through Gibbs Sampling2.4.1 提出问题2.4.2 解决问题2.4.3 效果及展望 三、 总结 前言 4.1.2 Automatic Construction共涉及9篇博客其中有1篇PoT在上一篇博客中已经讲解过了这里不再赘述。由于篇幅限制剩余的8篇论文将分文2篇博客进行介绍。 一、涉及论文 论文1Large Language Models are Zero-Shot Reasoners, NeurIPS 2022论文2Plan-and-Solve Prompting: Improving Zero-Shot Chain-of-Thought Reasoning by Large Language Models, ACL 2023论文3Automatic Chain of Thought Prompting in Large Language Models, ICLR 2023论文4Reprompting: Automated Chain-of-Thought Prompt Inference Through Gibbs Sampling 二、论文要点详解 下面将针对上述提及的论文从三方面进行讲解1提出了什么问题2如何解决的3效果及展望。 2.1 Large Language Models are Zero-Shot Reasoners 2.1.1 提出问题 虽然CoT技术的出现使得LLMs在多步推理任务上如算术、多步逻辑推理等复杂的能力有所提升。但作者认为CoT技术违背了LLMs的缩放定律使得LLMs的推理和响应都变慢了。 扩展知识 System 1和System 2的思维来自丹尼尔·卡尼曼 Daniel Kahneman的《思考快与慢》一书。里面介绍了两种不同的认知处理模式。System 1快速、自动且直观几乎无需费力即可操作。这种思维模式使人类能够根据模式和经验做出快速决策和判断。相比之下System 2是缓慢的、深思熟虑的和有意识的需要有意识地努力。这种类型的思维用于复杂的问题解决和分析任务在这些任务中需要更多的思考和考虑。 若有朋友知道该内容的原论文还请私信发我万分感谢 2.1.2 解决问题 基于上述问题作者提出了Zero-shot-CoTChain of Thought的简单方法通过在模型回答之前添加触发句Let’s think step by step促使模型以链式推理方式逐步分解问题。与此前依赖于任务特定的Few-shot-CoT方法不同Zero-shot-CoT无需任何示例只需一个通用提示适用于各种推理任务。方法对比如下图所示  注释 (a) 标准 Few-shot、(b) Few-shot-CoT、©标准 Zero-shot 和 (d) 我们的Zero-shot-CoT。 Zero-shot-CoT方法具体包含两阶段提示第一阶段提取推理路径第二阶段提取答案格式化结果。如下图所示 2.1.3 效果及展望 实验效果  在多种数据集上如MultiArith、GSM8K等Zero-shot-CoT显著提升了语言模型的零样本性能。例如在MultiArith数据集上准确率从17.7%提高到78.7%在GSM8K上从10.4%提高到40.7%。如下图所示 未来研究方向 模板设计优化 如何自动化生成更高效的通用提示模板。结合指令微调 将Zero-shot-CoT与微调模型结合探索其在更大规模模型上的适用性。推理能力分析 深入挖掘大规模语言模型内潜在的多任务认知能力。减轻偏见 研究Zero-shot-CoT对语言模型固有偏见的影响提升模型的公平性与透明性。 2.2 Plan-and-Solve Prompting: Improving Zero-Shot Chain-of-Thought Reasoning by Large Language Models 2.2.1 提出问题 作者仍然关注LLMs在复杂多步推理任务上的性能不足问题特别是零样本场景下的推理能力。虽然上一篇提出的零样本链式推理Zero-shot-CoT方法能提升推理质量但仍存在如下3个问题    ① 计算错误 模型在执行基本运算时出错。    ② 缺少步骤错误 推理过程中漏掉关键步骤。    ③ 语义误解错误 对问题语义或推理逻辑的理解不到位。 2.2.2 解决问题 为了解决这些问题本文提出了一种新的方法——计划与求解提示Plan-and-Solve, PS它由两个部分组成首先制定计划将整个任务划分为较小的子任务然后根据计划执行子任务。 为了解决计算错误并提高生成的推理步骤的质量作者扩展了PS 提示增加了更详细的说明并衍生出PS 提示。具体包含以下关键步骤    ① 任务规划 提示语言模型先理解问题并制定一个分解任务的计划将复杂问题拆解为多个子任务。    ② 执行任务 根据制定的计划逐步完成子任务。    ③ 改进提示模板PS 在提示中加入更详细的指令如“提取相关变量及数值”、“计算中间结果”以减少遗漏步骤和计算错误。    ④ 答案提取 通过附加的提示引导模型输出最终答案。 如下图所示a是PS提示的样例b是PS提示的样例。 2.2.3 效果及展望 实验效果  在 10 个数据集上包括算术推理、常识推理和符号推理任务验证了方法的有效性具体实验结果如下图所示。    ①零样本效果 PS 方法在所有数据集上均显著优于 Zero-shot-CoT表现甚至接近少样本8-shot提示。PS 在某些任务上超越了零样本编程式推理Program-of-Thought Prompting, PoT。    ②减少错误 PS 方法相比 Zero-shot-CoT 明显减少了计算错误从 7% 降至 5%和缺失步骤错误从 12% 降至 7%。    ③ 扩展性 PS 的详细提示可轻松适配于非算术推理任务如常识和符号推理。 未来研究方向 语义理解改进 PS 方法仍难以完全避免语义理解错误目前约 27%未来可探索更细化的提示策略。计划优化 研究如何生成更有效的计划或动态调整计划。跨任务迁移 验证 PS 在其他领域的通用性。 2.3 Automatic Chain of Thought Prompting in Large Language Models 2.3.1 提出问题 大型语言模型 (LLM) 可以通过生成中间推理步骤来执行复杂的推理任务。这些步骤由所谓的思路链 (CoT) 提示触发它有两种形式一种利用简单的提示如“让我们一步一步思考”以促进在回答问题之前进行逐步推理 (Zero-Shot-CoT)。另一种使用手动演示每个演示都由一个问题和一个导致答案的推理链组成 (Manual-CoT)。然而手动设计的少样本链式思维提示Manual-CoT尽管性能较好但存在以下问题    ① 需要大量人力 手动生成任务特定的演示需要专业知识且成本高。    ② 缺乏可扩展性 不同任务需要不同的手动提示难以适应多任务场景。    ③ 零样本提示性能不足 零样本提示Zero-Shot-CoT虽无需手动设计但在复杂推理任务上的表现较差。 2.3.2 解决问题 作者提出了一种名为 Auto-CoT自动链式思维提示 的方法用以自动生成演示解决手动提示的依赖问题。其核心步骤包括    ① 问题聚类 利用 Sentence-BERT 对问题进行向量化表示采用 k-means 聚类将问题分为若干组。每组选择一个典型问题作为代表。    ② 演示生成 对每个代表问题使用 Zero-Shot-CoT 提示生成推理链条。应用简单的质量控制标准如推理步骤数不超过 5筛选生成的演示以确保质量。    ③ 多样性策略 通过聚类增强问题的语义多样性避免模型因过多相似错误而受到误导。 算法伪代码如下图所示 2.3.3 效果及展望 实验效果  Auto-CoT 在多个任务上表现接近甚至超越手动提示Manual-CoT。与零样本提示相比Auto-CoT 提升了模型的推理能力。具体如下图所示 未来研究方向 模型改进 探索更有效的质量控制和提示生成方法。动态适配 研究如何在流式输入或实时任务中动态更新演示。错误分析 深入研究错误来源及其对推理性能的影响。 2.4 Reprompting: Automated Chain-of-Thought Prompt Inference Through Gibbs Sampling 2.4.1 提出问题 本篇论文也是基于当前手工设计的CoT在LLMs中存在的局限这一问题进行开展的与上一篇的出发点是雷同的。 2.4.2 解决问题 作者提出了一种名为 Reprompting 的自动化算法利用Gibbs采样技术生成有效的CoT提示。核心步骤包括    ① 初始化提示 使用零样本提示生成初始 CoT 提示。利用初始提示解决训练问题筛选初步有效的提示。    ② 迭代优化 以初始提示为基础生成新提示将新提示用于解决训练问题并根据解答准确性筛选出更好的提示。通过拒绝采样机制保留部分错误但有潜力改进的提示以提升多样性。    ③ 跨模型组合 在不同模型间进行提示初始化与优化例如用 ChatGPT 初始化提示随后由 InstructGPT 优化提示。   通过上述流程算法逐步优化提示直至收敛生成的提示可在测试问题上推广使用。 算法伪代码如下图所示 2.4.3 效果及展望 实验效果  作者在 20 项复杂推理任务涵盖 Big-Bench Hard、GSM8K、MATH 等基准测试上验证了 Reprompting 的有效性相比人工设计提示平均提升了9.4个百分点在多项任务中超越了当前最优提示优化算法如 Auto-CoT 和 APO提升幅度达11–33个百分点。具体如下图所示 未来研究方向 改进采样方法 优化 Gibbs 采样流程减少迭代次数。任务无关提示 探索生成能够跨任务通用的高效提示。模型协同优化 研究多模型联合优化提示的潜力进一步提高性能。 三、 总结 以上就是本篇博客的全部内容了具体的论文细节希望大家去阅读原文关于有代码的论文后期博主也会去进行尝试有兴趣的朋友可以一直持续关注感谢各位的支持
http://www.pierceye.com/news/535367/

相关文章:

  • 以前有个自助建设网站东莞路桥投资建设公司招聘
  • 电子游艺网站开发常德seo技术
  • 河北邢台wap网站建设南昌网页制作
  • 山东建设人才网站高端母婴网站模板
  • 物业服务网站建设佛山做网站公司有哪些
  • 企业网站模板中文网站域名名字
  • 在服务器网站上做跳转网页设计代码动漫
  • 科协网站建设的意见合肥哪里有做网页的地方
  • 为企业做网站策划案永康网站推广
  • 做个企业网网站怎么做linux建网站
  • 专业建站公司主要做什么wordpress加入下载标签
  • 韩都衣舍网站建设方案美食网站怎么做dw
  • 电商网站开发 参考文献wordpress验证码注册
  • ic外贸网站建设wordpress和shopex
  • 网站技术制作流程图国内顶尖小程序开发公司
  • 免费网站建设下载优化关键词规则
  • 网站浮动窗口如何做自己怎么做淘宝客网站
  • 石材外贸在哪个网站做网页版 微信
  • 网站开发属于程序员吗sem 优化软件
  • 公司做网站是管理费用小程序官方文档
  • 公司网站推广技巧响水网站设计
  • 徐州本地网站wap页面是什么
  • 网站开发应用价值做套网站多少钱
  • asp.net网站模板免费下载怎么才能访问自己做的网站
  • 长沙企业网站制作宝安公司网站建设
  • 做网站需要拉多大的宽带dw做的网站怎么做后台
  • 公司网站建设设计公司哪家好wordpress自动封ip
  • 郫县网站制作wordpress搜索打钩
  • 哪些网站可以做招商广告语wordpress发文章的id怎么不连续
  • 家私网站栏目和功能需求策划网页样式库