当前位置: 首页 > news >正文

重庆顶呱呱网站建设杭州网络网站建设

重庆顶呱呱网站建设,杭州网络网站建设,浏览器 网络 网站,网络营销最主要的工具是论文来源#xff1a;WWW 2022 论文地址#xff1a;https://arxiv.org/pdf/2201.11332.pdfhttps://arxiv.org/pdf/2201.11332.pdf 论文代码#xff1a;暂未公开 笔记仅供参考#xff0c;撰写不易#xff0c;请勿恶意转载抄袭#xff01; Abstract 小样本学习旨在基于… 论文来源WWW 2022 论文地址https://arxiv.org/pdf/2201.11332.pdfhttps://arxiv.org/pdf/2201.11332.pdf 论文代码暂未公开   笔记仅供参考撰写不易请勿恶意转载抄袭 Abstract 小样本学习旨在基于有限数量的样本就行预测。结构化数据如知识图谱、本体库已被用于少样本设置的各种任务。但是现有方法采用的先验存在知识缺失、知识噪声和知识异质性等问题影响了小样本学习的性能。在本研究中我们探索了基于预训练语言模型的小样本学习知识注入并提出本体增强的提示优化。具体而言本文开发了基于外部知识图谱的本体转换来解决知识缺失问题实现了结构化知识向文本的转换。本文进一步通过可见矩阵引入跨度敏感知识注入以选择信息性知识来处理知识噪声问题。为了弥补知识和文本之间的差距本文提出了一种集体训练算法来联合优化表示。 Introduction 在过去几年中FSL已被引入到广泛的机器学习任务中如关系抽取、事件抽取和知识图谱补全等。Over the past few years, FSL has been introduced in a wide range of machine learning tasks, such as relation extraction, event extraction and knowledge graph completion.但是FSL存在以下问题 知识缺失 由于外部知识库的不完整性知识注入可能无法检索与任务相关的事实从而为下游任务提供无用或者不相关的信息。如何丰富与任务相关的知识是一个重要问题。知识噪声 先前的研究表明并不是所有的知识都对下游任务有益不加区分的知识注入可能会导致负面信息注入影响下游任务执行。因此上下文敏感和任务的知识选择对于知识增强学习至关重要。知识异质性 下游任务的语料库与注入的知识截然不同导致两个单独的向量表示。如何设计一个特殊融合知识信息的联合训练目标是另一个挑战。 针对上述问题所提出的策略 提出了本体转换来丰富和转换结构化知识到文本形式。简单来说就是将实体等信息作为提示加入到输入文本中弥补知识缺失问题         具体而言本文使用预定义的模板将知识转换为文本作为提示。提示调优可以减少预训练模型任务和下游任务之间的差距。例如“Turing entered King’s College, Cambridge in 1931, and then went to Princeton University to study for a doctorate图灵1931年进入剑桥国王学院然后去普林斯顿大学攻读博士学位”可以根据本体将他们包装成“s. Turing [MASK] Kings College”PLMs应该预测掩码位置的标签来确定输入的标签。需要注意的是本体作为提示将实体/跨度的知识加入到输入文本中这是与模型无关的即可以插入任何类型的PLMs中。提出跨度敏感知识注入以选择信息化知识并减轻噪声注入。也就是要避免不相关和噪声知识对模型产生影响        利用一个基于跨度及相应的外部知识的可视矩阵来指导知识注入这样并非输入句子中所有token 都会受到外部知识的影响。提出一种联合优化表示的集体训练算法。        注意注入的外部知识应与上下文相关联我们通过随机初始化添加了一些可学习的token并对这些token和注入的token进行优化。由于在低数据状态下提示调优是不稳定的可能会获得较差的性能我们进一步优化所有参数以集体训练本体文本和输入文本表示。 Methodology OntoPrompt是一个通用框架可以应用于多种任务如Figure 2所示。本文在关系抽取、事件抽取和知识图谱补全任务上评估我们的模型。 General Framework with Prompt-Tuning  输入为句子与模板的拼接其中包含一个[MASK]。输入到掩码语言模型之后模型可以获得候选类别的分布概率其中w表示类y的第w个标签token。本文将本体作为辅助提示以注入知识并将其附加到输入序列模板中。 Ontology Transformation 在本文中将本体表示为其中C是概念集合E表示本体之间的连接边D是每个本体的文本描述。概念集合是指特定领域的概念如在RE和EE中利用与所述本体相关的类型本体等。对于不同的下游任务每个任务利用不同的本体源进行本体转换。首先从外部知识图谱中抽取每个实例的本体然后将这些本体转换为原始文本作为辅助提示。 应用于关系抽取 利用MUC来定义命名实体的概念。注意命名实体可以提供重要的类型信息这有利于RE。然后将这些定义用作本体模式中的文本描述即将“[CLS] InputText [SEP] Template [SEP] OntologyText [SEP]”作为最终的输入序列。本文为OntologyText中的实体构造占位符并用外部文本描述来替换这些占位符并利用来自本体的实体对之间的路径作为元关系文本来增强OntologyText。 并将可学习的tokens[u1]-[u4]作为虚拟tokens添加到[MASK]的两边使模型自动学习最合适的单词作为提示。应用于事件抽取 构建了一个更大的事件本体同样将“[CLS] InputText [SEP] Template [SEP] OntologyText [SEP]”作为最终的输入序列为触发词构造占位符并在OntologyText中输入。应用于知识图谱补全 外部Wikidata作为本体源并提取文本描述。将知识图谱补全视为三元组分类任务并链接实体和关系作为输入序列。与上述任务相同将“[CLS] InputText [SEP] Template [SEP] OntologyText [SEP]”作为默认输入序列。 Span-sensitive Knowledge Injection  跨度敏感知识注入如Figure 3所示。使用一个可见矩阵来限制知识输入付输入文本的影响。在语言模型架构中在softmax之前添加了一个具有自注意力权重的注意力掩码矩阵。注意力掩码矩阵如下 以下情况可以注意到和均来自输入文本均属于同一本体的文本描述来自输入文本中的实体来自它的本体描述文本。 Collective Training 首先使用使用实词嵌入来初始化本体token并使用固定的语言模型进行优化然后优化了模型的所有参数包括语言模型和本体token。 Experiments RE EE KGC
http://www.pierceye.com/news/135712/

相关文章:

  • 大团企业网站制作东莞网站制作的公司
  • 石家庄做网站公司的电话网站建设费用大概多少
  • 襄阳市网站建设怎么注册工作邮箱
  • 在百度里面做个网站怎么做的摄影大赛官网
  • 网站建设需要哪些的ps网站策划
  • 网站维护的意义上海知名进出口贸易公司
  • 青岛中小微企业互联网站建设补贴微信小程序怎么发布上线
  • 贺州做网站哪家公司温州移动网站建设服务商
  • 网站变灰兼容代码北京计算机培训学校
  • 网站导航包括海拉尔网站建设+网站设计
  • flashfxp 上传网站佛山哪里有网站开发
  • qq互联 网站开发济南建设集团有限公司官网
  • 网站开发兼职网站学校网站构建
  • 简约网站后台媒体网站开发
  • 广东营销网站建设网页设计理念及设计思路
  • 咋自己做网站桂林生活网官网首页
  • 电子商务网站建设的展望自己做壁纸的网站
  • 国外h5建站网站建设方案总结评语
  • 百度开放平台白城整站优化
  • 搜狗整站优化广州市网站建站
  • 最方便建立网站北京定制网络营销收费
  • 烟台放心的一站式网站建设桐梓网站建设
  • 如何高效的完成网站建设步骤美食分享网站建设策划书
  • 建立网站的软件网站建设数据库的购买
  • 建网站需要多大的宽带wordpress 分享后可见
  • 自建营销型企业网站阿里网 网站备案流程
  • 与网站建设相关的论文题目wordpress图片上文字
  • 怎样搭建网站视频教程58企业网站如何做
  • 比较有名的网站建设公司wordpress 字数
  • 网站内容资源建设渭南市建设项目