当前位置: 首页 > news >正文

做网站广告网页上海企业公示信息查询系统

做网站广告网页,上海企业公示信息查询系统,网站如何调用数据库,南翔做网站公司ICLR 2024#xff0c;reviewer评分 6666 1 intro 1.1 背景 当下LLM的限制 限制1#xff1a;对非结构化文本的依赖 ——模型有时会错过明显的逻辑推理或产生错误的结论限制2#xff1a;LLMs本质上受到它们训练时间的限制#xff0c;将“最新”信息纳入到不断变化的世…ICLR 2024reviewer评分 6666 1 intro 1.1 背景 当下LLM的限制 限制1对非结构化文本的依赖 ——模型有时会错过明显的逻辑推理或产生错误的结论限制2LLMs本质上受到它们训练时间的限制将“最新”信息纳入到不断变化的世界状态中可能会很困难 图结构化数据是表示信息最灵活的方式之一可能是解决这两个挑战的有希望的解决方案 目前图和LLMs的交集相对来说研究不足 1.2 论文思路 对用于LLMs的图结构提示技术进行了广泛研究为将图编码为文本以供LLMs使用提供了见解和最佳实践为社区研究LLMs效果提供了新的图基准GraphQA 2 图推理中提示LLMs 2.0 符号 f 在这项工作中我们将 f 通俗地称为预训练的大型语言模型LLM 接受高维离散输入令牌 W 并在相同的令牌空间中产生输出f : W → W W令牌空间G (V, E) 图 V 是顶点或节点的集合E ∈ (V × V) 是连接它们的边的集合 2.1 提示工程 提示工程的目标是找到正确的方式来表述一个问题 Q使得LLM f将返回相应的答案 A(Q ∈ W, A ∈ W) A f(Q)在这项工作中我们的目标是向 LLM f 提供图信息以便它可以更好地推理出需要访问任意结构化关系信息的问题/答案对。 A f(G, Q)存在多种方法修改 LLM f(.)使其在图数据任务上表现更好 例如微调软提示和 LoRA此外许多方法修改模型以包含图信息。然而这些方法都需要访问模型的内部无论是其权重还是梯度这可能限制了它们在许多实际场景中的适用性。在这项工作中论文对以下这种情况更感兴趣 f(.) 及其参数是固定的系统仅在黑盒设置中可用其中 LLM 仅消费和产生文本即LLM f : W → W。论文认为这种设置特别有价值因为可用的专有模型数量及其硬件需求增加。——引入图编码函数 g(G) 和问题重述函数 q(Q)其中 g : G → W 且 q : W → W A f(g(G), q(Q)) 2.1.1 目标函数 对基于图的提示系统的训练输入 D 是一组 G, Q, S 三元组 G 是一个图Q 是一个问题S ∈ W是 Q 的一个解决方案目标是找到一个 g(.) 和 q(.)最大化模型对训练数据集 D 中答案的期望得分 由于 W 是一个非常大的离散空间许多当前的方法使用启发式进行这一优化通过改变提示 Q 这项工作的新颖贡献是考虑图编码函数 g(.), 问题重述函数q(.)以及图结构 G 在目标函数优化中的作用。 2.2 启发式提示 绝大多数启发式提示方法通过优化用于查询模型的提示文本 Q 来操作。论文进一步检查的方法有 ZERO-SHOT简单地提供模型一个任务描述并要求它生成所需的输出无需任何先前的任务训练FEW-SHOT 为模型提供少量任务示例及其期望输出。 然后模型从这些示例中学习以便在新输入上执行任务 CoT 为模型提供一系列示例每个示例展示如何逐步解决任务。 然后模型学习生成其CoTs来解决新问题 ZERO-SHOT CoT 与CoT提示类似但它不需要任何先前的训练示例。 相反模型使用简单的提示来生成其自己的CoTs 使用prompt”Let’s think step by step“ COT-BAG通过在图描述后附加“Let’s construct a graph with the nodes and edges first” 3 通过文本编码图像图一样交流 图编码是将图结构信息转换为语言模型可理解序列的必要步骤本节将研究图编码函数 g(.) 的细节该函数将图数据映射为LLM可理解的令牌 3.0 一些结论 • R1: LLMs 在基本图任务上表现不佳§3.1。 • R2: 图编码函数对LLM图推理有显著影响§3.1。 • R3: 模型容量对LLMs的图推理能力有显著影响§3.4。 3.1 图编码函数 将图编码为文本的过程可以分为两个关键的询问 首先图中节点的编码其次节点之间边的编码 3.1.1 编码节点 关于节点的编码检查了几种技术包括 整数编码例如节点0。使用著名的英文名字例如David。使用电视剧《权力的游戏》和《南方公园》中流行角色的名字。使用美国政治家的名字。使用字母表字母进行表示。 3.1.2 编码边 关于边的编码检查了以下技术 括号描述边为源节点目标节点。友谊源节点和目标节点是朋友。合著源节点和目标节点共同写了一篇论文。社交网络源节点和目标节点相连。箭头源节点 → 目标节点。关联源节点与目标节点相连。 3.1.3 图编码 邻接 Adjacency。使用整数节点编码和括号边编码。 关联 Incident。使用整数节点编码和关联边编码。 友谊 Friendship.。使用著名的英文名字作为节点编码和友谊边编码。 共同作者 Co-authorship。使用著名的英文名字作为节点编码和共著边编码。 SP。使用《南方公园》角色名作为节点编码和友谊作为边编码。 GOT。使用《权力的游戏》角色名作为节点编码和友谊作为边编码。 社交网络 Social network。使用著名的英文名字和社交网络边编码。 政治家 Politician。使用美国政治家的名字和社交网络边编码。 专家 Expert。使用字母表字母作为节点编码和箭头作为边编码。编码开始于“你是一个图分析师”。 3.2 图结构 3.3 实验1 预训练的LLMs在图任务上的性能 测量了预训练的LLMs在图任务上的性能边的存在、节点度、节点计数、边计数、连接的节点和周期检查 3.3.1 结果 几乎所有基本图任务上LLMs的表现都很差 LLMs的表现比大多数基线还要差简单的提示对简单任务最有效 ZERO-COT提示在基本图任务上的模型性能比ZERO-SHOT提示差 这可能是因为ZERO-SHOT提示对这些不需要多跳推理的任务来说已经足够了ZERO-COT提示对于需要多跳推理的任务如算术问题可能有效但对大多数只需要LLM理解图结构节点、边、路径等和图任务的基本图任务来说不是必需的对于更复杂的任务添加少量示例和CoT提示通常可以提高模型的性能。 这主要是因为少数样本示例为LLM提供了更好的任务理解图编码函数对LLM推理有显著影响 图编码函数的选择对LLMs在图相关任务上的性能有显著影响 这是因为不同的编码函数捕捉到了图结构的不同方面例如在zero-shot场景下对于在图中找到节点的连接节点邻接达到了19.8%的准确率而关联达到了53.8%的准确率对于节点度和连接的节点关联编码比其他编码函数表现更好。 这可能是因为关联编码以一种使相关信息更容易获得的方式编码图结构整数节点编码提高了算术性能 节点的整数编码例如节点0可以提高LLMs在整数输出任务上的性能如预测节点度、节点计数和边计数 这是因为LLM的输入和输出处于同一空间使得模型更容易学习两者之间的关系具有特定名称的编码函数例如David在非整数输出任务中表现更好如GOT中的边存在或Friendship中的成环检查 3.3.2 不同graph encoding 在不同prompring下表现的平均rank 3.2 实验2不同的prompt 问题 在这个实验中将图编码函数固定为“友谊”并使用两种不同的问题编码函数进行实验    图问题编码器 负责编码与图相关的任务例如确定特定节点的度例如“节点i的度是多少”应用问题编码器 应用问题编码器以更实际、日常的上下文解释图问题在应用场景中使用基于友谊的情景将任务转换如下 边的存在变成了“评估友谊的存在”节点度变成了“计算个人的朋友数”节点计数变成了“计算提及的人数”边计数变成了“计算提及的友谊数”连接的节点变成了“列出朋友”。 3.2.1 结果 应用编码器在几乎所有任务上都优于图编码尽管两个编码器都有相同的图编码函数只是在提问方式上略有不同 3.3  实验3不同的relation encoding 在这个实验设置中我们对友谊图编码函数进行了修改基于一系列不同的关系类型来表征边 包括朋友、同事、配偶、兄弟姐妹、邻居、熟人、队友、同学、同事或室友。关系类型的选择从这个预定义的集合中随机选取从而使用多个词来引用节点之间关系的存在。这与之前的图编码实验中使用相同的令牌表示边的做法不同。结果 如表3所示使用多个词来表示关系并没有损害LLM的性能甚至在某些情况下还有所改进。这种改进很可能是因为多样的关系集合为LLM提供了更多的文本信息来执行任务且最终编码与LLM在训练期间可能看到的文本相比更为接近 3.4 实验4模型容量与图推理能力 测量了模型容量对图任务的影响。比较了PaLM 2 XXS、XS、S和L的结果这些模型有着不同的参数数量因此具有不同的容量 结果 模型容量对LLM的图推理能力有显著影响。更大的模型通常在图推理任务上表现得更好。这是因为它有更多的容量来学习和存储复杂信息。模型容量对边的存在影响较小。结果还显示即使具有较大的容量模型也未能超过边存在的多数基线。 3.5 在无边情况下的推理 在这个实验中我们评估LLMs在未连接节点任务上的表现。 这项任务与之前的任务不同因为它需要对图中隐含的信息进行推理即在图编码函数的输出中没有明确提及的信息。结果 LLMs缺乏对图的全局模型。 ZERO-SHOT提示方法实现了0.5%的准确率而ZERO-COT、FEW-SHOT、COT和COT-BAG方法几乎达到了0.0%的准确率这些结果表明LLMs在未连接节点任务上的表现显著低于连接节点任务。 这是因为图编码函数主要编码了关于连接节点的信息而没有明确编码关于未连接节点的信息。因此LLMs在处理连接节点之间的关系上表现更好而在捕捉连接缺失上则表现不佳导致在与断开连接相关的任务上性能不佳。 4 图结构对于LLM效果有影响嘛 为了能够在图上进行LLMs的实验使用各种图生成算法生成随机图 4.1 图结构对LLM的性能有显著影响 在完全图上的成环检查任务达到了91.7%的准确率在路径图上的准确率为5.9% 这是因为LLM对图存在环有强烈的先验 因此对于始终有周期的完全图准确率很高而对于从不有周期的路径图准确率非常低。通过添加一些有周期和一些没有周期的少量示例路径图上的周期检查准确率从5.9%提高到了19.7%在边存在任务上LLM在路径图上达到了60.0%的准确率这些图不太可能有两个节点之间的边而在完全图上的准确率为19.8%完全图有所有节点对之间的边。 这表明LLM有一个先验即图中的两个节点更有可能是未连接的。 4.2 图编码函数中的干扰性陈述打乱了LLM的性能 节点度、节点计数和连接节点任务的准确率对于星形和路径图最高 这可能是因为星形和路径图更可能有较少的边它们的图编码很可能更短对这些任务的干扰性陈述较少这也从这些任务在完全图中的准确率是最低的事实中显而易见完全图有许多要指定的边因此有许多干扰因素。 4.3  添加分布外的少量示例帮助了LLM 添加少量示例及其思维链在COT提示中在大多数任务上有所帮助 少量示例不需要来自同一个生成器对LLM来说它们的主要作用是向LLM解释任务
http://www.pierceye.com/news/637244/

相关文章:

  • 小店网站制作php做的网站首页是什么文件
  • i深建官方网站淮南网络营销哪家强
  • 网上网站怎么做织梦网站模块
  • 怎么新建自己的网站百度广告推广费用
  • 北京 科技网站建设上海短视频推广公司
  • 帮别人做网站哪里可以接单大型网站开发团队的美工需要什么工作经验和教育背景及薪酬
  • 网站开发工程师社交哔哩哔哩网页版入口2023在线观看
  • 凡客 网站设计wordpress也没
  • 深圳的网站建设公司排名电话外呼系统呼叫中心系统
  • 2022没封的网站免费的闵行区网站建设
  • 网站域名做入什么科目网络营销的主要内容是什么
  • 网站平面模板网站建设招标模板
  • 网站系统升级需要多久渐变网站
  • 网站建设数据库代码做煤的网站app
  • 做家电维修网站能接到单吗十大赚钱小程序
  • 手机网站表单页面制作小游戏网站审核怎么做
  • 浅谈高校门户网站建设的规范标准wordpress改变文章页宽度
  • 做网站必须得ipc支部网站建设
  • 受欢迎的医疗网站建设常德网站开发哪家好
  • 小区服务网站怎么做常州网站制作哪家好
  • 全国各大网站网站制度建设情况
  • 两学一做网站视频软文广告是什么意思
  • 网站等级保护如何做谷歌推广方案
  • 哪些网站做免费送东西的广告nas怎么做网站服务器
  • 网站开发用什么百度一下首页官网百度
  • 上海做saas平台网站的公司商城网站程序
  • 最好的免费建站网站做设计接私活的网站
  • 有帮忙做幻灯片的网站么济宁网站开发公司
  • 网站开发技术 主流官网铺设
  • 贵阳网站建设钟鼎网络江门网站建设套餐