xampp配置多网站,创建一个网站要多少钱,网站建设与网页设计实训报告,广州竞价托管笔记整理#xff1a;屠铭尘#xff0c;浙江大学硕士#xff0c;研究方向为知识图谱 链接#xff1a;https://arxiv.org/abs/2304.13007 1. 动机 1.1 Chain of Thought的诞生 尽管大语言模型在许多自然语言处理任务上表现出色#xff0c;但由于其本质是token by token的类似… 笔记整理屠铭尘浙江大学硕士研究方向为知识图谱 链接https://arxiv.org/abs/2304.13007 1. 动机 1.1 Chain of Thought的诞生 尽管大语言模型在许多自然语言处理任务上表现出色但由于其本质是token by token的类似“词语接龙”的生成方式并不能理解词句的语义就导致其在推理相关任务上有所限制且有研究表明这种缺陷难以通过语言模型规模的扩大得到解决。因此Jason Wei等人在2022年发表了Chain-of-Thought Prompting Elicits Reasoning in Large Language Models这篇论文首次提出了用“Chain of Thought(CoT)”推理链这种方法来对ChatGPT等模型进行提示结果表明此方法可以显著提升模型应对推理任务的能力这篇论文被称为Chain of Thought的开山之作。 1.2 Chain of Thought的发展 自从Chain of Thought这种推理链提示方法被提出不断有研究者对这种方法进行了进一步改进。 1Chain of Thought 推理链提示Jason Wei, et.al 2022 即在原先Prompting输入首先给一个示例问题和对应答案再给一个相似问题如上图左的基础上在给出示例答案的时候同时给出得到答案的推理过程。 研究显示这种方法能提升大语言模型在推理问题上的正确率。 2推理链在线信息检索 (Harsh Trivedi, et.al 2022) 允许大语言模型在推理过程中加入对在线信息的检索研究显示此方法也会提升大语言模型的正确率。 3Self-Ask(SA) (Harsh Trivedi, et.al 2023) 引导大语言模型将原问题分解成许多小问题通过逐步解决小问题最终解决原问题。 4Self-Consistency(SC) 让语言模型多次对同一个问题进行回答将出现次数最多的那个答案作为最终答案。 5本文提出的Multiple Chains Reasoning (MCR)方法 本篇作者认为尽管Self-Consistency(SC)方法能显著提升大语言模型应对推理问题的能力但仍具有以下局限性 如果某个问题的产出空间很大那么可能不会得到占多数的答案每一次大语言模型对问题进行推理时可能会抓住不同的关键要点但并不是所有关键信息都会体现在答案中答案没有很好的可解释性。 与此同时MCR具有这些相应的优势 MCR能够结合每条推理链中的重要信息因此有望实现答案的正确率提高答案具有更好的可解释性。 2. 方法 MCR方法主要由三大模块Decomposition、Retrieval、Meta-Reason构成其中Decomposition和Retrieval方法类似于之前方法提出的的原问题进行分解、检索等而本文提出方法的核心则在于第三个模块也就是元推理模块。 如何实现元推理模块本文引入了另一个LLM预先对其进行few-shot prompting。即将多条链的上下文和原始问题给LLM训练其从多条链上下文中获取有价值信息、产生最终答案的能力。 3. 实验 3.1 Setting 1数据集 注此实验将推理类型分为implicit和explicit两种类型 2语言模型 main: GPT-3, code-davinci-002 also: Vicuna-13B 3元推理模块 Meta-Reasoner MCR SCR 4基线Baselines 5检索器 Retrieval Google-WIKIPEDIA 3.2 Results 3.3 Analysis 1MCR在什么情况下胜过SCR? 当MCR用到了除了greedy链之外的其他链提供的信息时。 2是否真的结合了多条链信息 判断产出的句子中是否有一句来自于某一条链而另一句来自于另一条链这可以证明元推理模块至少用到了两条链的信息结果显示结合链之间的信息可能至少平均对2%-2.5%的例子起到了积极作用。 3答案可解释性的质量 通过人工衡量explanation和答案是否相关以及如果只给问题和语言模型的explanation看语言模型是否会生成同样答案来判断explanation的有效性、可重复性。 4错误分析 对不同类型的错误进行分类并分析语言模型面对不同数据集不同类型推理问题时在不同类型错误上的正确率。分析得出在面对implicit类型的问题时语言模型在解析问题即问题拆分上可能表现就相对不佳。 4. 总结 1结论 introduce the MCR method for metareasoning on multiple chains-of-thought. 引入MCR模型对多条链进行元推理。show that MCR outperforms all baselines, including self-consistency, on all 7 multi-hop open-domain QA benchmarks. 证实MCR在所有多跳开放问题标准测试上表现得比包括SC在内的所有基线方法都要好。analyze MCR for its explanation quality and its multi-chain reasoning capabilities.对MCR的解释能力和多链推理能力进行了分析。 2不足 opt for a prompted LLM as our meta-reasoner, we do not experiment with a fine-tuned meta-reasoning model. 没有用微调的元推理模型而只是进行了prompting。For the meta-reasoner context, we experiment with variants which include either generated QA pairs of retrieved evidence sentences. We leave further improvements to the meta-reasoner context as future work.只是给元推理模块QA pairs未来或许有更好的信息组织形式。extend the open-source model results to include additional datasets besides STRATEGYQA and HOTPOTQA.以后的实验应在更多测试集上进行。 OpenKG OpenKG中文开放知识图谱旨在推动以中文为核心的知识图谱数据的开放、互联及众包并促进知识图谱算法、工具及平台的开源开放。 点击阅读原文进入 OpenKG 网站。