当前位置: 首页 > news >正文

洛阳做网站的做一份完整的网站规划书

洛阳做网站的,做一份完整的网站规划书,网站双域名 登陆,泉州公司建站模板文章目录 论文题目#xff1a;通过阅读实体描述实现零样本实体链接摘要1 介绍2 零点实体链接2.1 审查#xff1a; 实体链接2.2 任务定义2.3 与其他 EL 任务的关系 3 数据集构建4 实体链接模型4.1 生成候选4.2 候选排序 5 适应目标世界6 实验6.1 基线6.2 对未知实体和新世界6.… 文章目录 论文题目通过阅读实体描述实现零样本实体链接摘要1 介绍2 零点实体链接2.1 审查 实体链接2.2 任务定义2.3 与其他 EL 任务的关系 3 数据集构建4 实体链接模型4.1 生成候选4.2 候选排序 5 适应目标世界6 实验6.1 基线6.2 对未知实体和新世界6.3 领域自适应预训练的影响6.4 测试结果和性能分析 7 相关工作8 结论A 检验模型误差和预测 论文题目通过阅读实体描述实现零样本实体链接 论文链接https://arxiv.org/abs/1906.07348 arXiv:1906.07348v1 [cs.CL] 18 Jun 2019 摘要 我们提出了 零镜头实体链接 任务即必须在没有域内标注数据的情况下将提及链接到未知实体。该任务的目标是将实体稳健地转移到高度专业化的领域因此不假定有元数据或别名表。在这种情况下实体只能通过文本描述来识别模型必须严格依赖语言理解来解析新实体。首先我们证明了在大量未标记数据上预先训练的强大阅读理解模型可用于泛化未见实体。其次我们提出了一种简单有效的自适应预训练策略我们称之为领域自适应预训练DAP以解决与在新领域中链接未见实体相关的领域转移问题。我们介绍了在我们为这项任务构建的新数据集上进行的实验结果表明 DAP 比包括 BERT 在内的强大预训练基线更有优势。数据和代码可在 https://github.com/lajanugen/zeshel。 1 介绍 当目标实体词典中存在大量可用于训练的实体消歧提及时实体链接系统就会取得很高的性能。这类系统通常使用强大的资源如高覆盖率的别名表、结构化数据和链接频率统计。例如Milne 和 Witten2008 年的研究表明仅使用从维基百科训练文章的超链接统计中收集到的先验概率就能使维基百科测试文章中链接预测任务的准确率达到 90%。 虽然之前的大多数工作都集中在与一般实体数据库的链接上但人们往往希望与专业实体词典进行链接例如法律案例、公司项目描述、小说中的人物集或术语词汇表。遗憾的是这些专业实体词典的标注数据并不容易获得而且获取成本往往很高。因此我们需要开发能够泛化到未见过的专门实体的实体链接系统。如果没有频率统计和元数据这项任务就会变得更具挑战性。之前的一些研究已经指出了构建可泛化到未见实体集的实体链接系统的重要性Sil 等人2012 年Wang 等人2015 年但采用了一套额外的假设。 在这项工作中我们提出了一种新的零镜头实体链接任务并为此构建了一个新的数据集。目标字典被简单地定义为一组实体每个实体都有文字描述例如来自实体规范页面。与之前的一些工作不同我们并不限制提及的实体必须是已命名的实体因为这将导致大量候选实体的出现从而增加任务的难度。在我们的数据集中有多个实体词典可用于训练而任务性能则是在一组没有标注数据的测试实体词典上测量的。图 1 展示了任务设置。我们使用 Wikia 中的多个子域构建数据集并使用超链接自动提取有标签的提及内容。 图 1零镜头实体链接。图中显示了多个训练域和测试域世界。该任务有两个关键特性(1) 它是零镜头任务因为在训练过程中没有观察到任何测试世界实体被提及。(2) 只有文本非结构化信息可用。 零镜头实体链接对实体链接模型提出了两个挑战。首先在没有强大的别名表或频率先验的情况下模型必须阅读实体描述并推理与上下文中提及内容的对应关系。我们的研究表明一个强大的阅读理解模型至关重要。其次由于没有测试实体的标注提及模型必须适应新的提及上下文和实体描述。我们将重点关注这两个挑战。 本文的贡献如下 我们提出了一项新的零镜头实体链接任务旨在以最少的假设挑战实体链接系统的泛化能力。我们为这项任务构建了一个数据集该数据集将公开发布。我们利用最先进的阅读理解模型建立了一个强大的基线。我们的研究表明对上下文中的提及和实体描述之间的关注对于这项任务至关重要而在之前的实体链接工作中并未使用过这种关注。我们提出了一种简单而新颖的适应策略称为领域适应性预训练DAP并证明它能进一步提高实体链接性能。 2 零点实体链接 我们首先回顾了标准实体链接任务定义并讨论了先前系统的假设。然后我们定义了零镜头实体链接任务并讨论了它与之前工作的关系。 2.1 审查 实体链接 实体链接Entity linkingEL是通过将实体提及与给定的实体数据库或字典中的条目链接起来从而实现实体提及的基础化。从形式上看给定一个提及 m 及其上下文实体链接系统会将 m 链接到实体集 E {ei}i1,…,K 中的相应实体其中 K 是实体的数量。EL 的标准定义(Bunescu 和 Pasca2006Roth 等人2014Sil 等人2018假定提及边界由用户或提及检测系统提供。实体集 E 可能包含数万甚至数百万个实体因此这是一项具有挑战性的任务。实际上许多实体链接系统都依赖于以下资源或假设 单一实体集 假定在训练和测试示例中共享一个单一的实体集 E。 别名表 别名表包含给定提及字符串的候选实体并将可能性限制在相对较小的范围内。这种表通常是根据标注的训练集和特定领域的启发式方法编制而成的。 频率统计 许多系统使用从大型标注语料库中获得的频率统计来估算实体的流行度以及某个提及字符串与某个实体建立链接的概率。这些统计数据在可用时非常强大。 结构化数据 有些系统假定可以访问结构化数据如关系元组如巴拉克-奥巴马、配偶、米歇尔-奥巴马或类型层次结构以帮助消歧。 2.2 任务定义 这项任务的主要动机是扩大实体链接系统的范围并使其具有泛化能力适用于未见过的实体集。因此我们放弃了上述假设只做一个弱假设存在一个实体字典E {(ei, di)}i1,…,K其中di是实体ei的文本描述。 我们的目标是构建能够泛化到新领域和实体字典我们称之为世界的实体链接系统。我们定义一个世界为W MWUWEW其中MW和UW分别是来自该世界的提及和文档的概率分布而EW是与W关联的实体字典。来自MW的提及m被定义为来自UW的文档中的提及跨度。我们假设可以从一个或多个源世界Wsrc1…Wsrcn中获得标记的提及实体对进行训练。在测试时我们需要能够为一个新的世界Wtgt中的提及打标签。请注意实体集EWsrc1…EWsrcnEWtgt是不相交的。图1给出了几个训练和测试世界的示例。 我们还假设可以从目标分布UWtgt和实体描述EWtgt中获取样本用于训练。这些样本可以用于无监督的适应目标世界。在训练过程中Wtgt中的提及边界不可用。在测试时将提及边界作为输入提供。 2.3 与其他 EL 任务的关系 我们总结了新引入的零次实体链接任务与之前EL任务定义之间的关系并将其汇总在表1中。 表格1实体链接任务定义的假设和资源。我们将任务定义分类基于以下几点 (i) 系统是否在训练领域内的提及上进行测试In-Domain (ii) 在训练过程中是否看到与目标实体集链接的提及Seen Entity Set (iii) 是否可以使用别名表或严格的标记重叠约束来得出一个小型高覆盖率候选集Small Candidate Set 以及(iv) 频率统计信息、(v) 结构化数据和(vi) 文本描述实体词典的可用性。 标准实体链接 在不同的数据集之间存在许多差异Bunescu和Pasca2006Ling等2015但大多数都关注一个标准设置即在训练过程中可以看到来自全面测试实体字典通常是维基百科的提及而且可以利用丰富的统计信息和元数据Roth等2014。还假定有标记的领域内文档和包含提及的文档也是可用的。 跨领域实体链接 最近的工作也已经推广到跨领域的设置将不同类型的文本中的实体提及如博客文章和新闻文章与维基百科知识库进行链接同时只使用维基百科中的标注实体进行训练例如Gupta等人2017年Le和Titov2018年等等。 链接到任何数据库 Sil等人2012提出了一个与我们非常相似的任务设置后来的工作Wang等人2015也遵循了类似的设定。零次元实体链接zero-shot EL与这些工作之间的主要区别在于他们假设要么有一个高覆盖率的别名表要么有高精度的标记重叠启发式算法来减少实体候选集的大小即在Sil等人2012中少于四个并依赖于结构化数据来帮助消歧义。通过编译和发布一个专注于从文本信息中学习的多世界数据集我们希望能够推动在更广泛的应用程序中链接实体的进步。 基于词典词汇定义的工作与词语歧义消解相关Chaplot和Salakhutdinov2018但这个任务表现出较低的歧义性现有的表述并未关注领域泛化。 3 数据集构建 我们构建了一个新的数据集以研究使用来自Wikia的文档的零次实体链接问题。Wikia是社区编写的百科全书每个Wikia都专门关注一个特定的主题或主题如一本书或电影系列中的虚构宇宙。Wikia具有许多适合我们任务的有趣特性。 标注的提及可以根据超链接自动提取。提及和实体具有丰富的文档上下文可以被阅读理解方法利用。每个维基百科都有大量与特定主题相关的独特实体使其成为一个有用的基准用于评估实体链接系统的领域泛化能力。 我们使用来自16个维基的数据并使用其中的8个进行训练4个用于验证4个用于测试。为了构建训练和评估数据我们首先从维基中提取大量提及。许多这些提及可以通过字符串匹配在提及字符串和实体文档标题之间轻松链接。这些提及在数据集构建过程中被降低采样并占据最终数据集的小部分5%。虽然这种方法并不完全代表实体提及的自然分布但这种数据构建方法遵循了最近的研究工作这些研究工作的重点是评估在实体链接问题中具有挑战性的方面例如Gupta等人2017选择了具有多个可能实体候选者的提及来评估领域内未见过的实体性能。每个维基亚文件对应一个实体由文件的标题和内容表示。这些实体与它们的文本描述配对构成了实体字典。 由于任务已经相当具有挑战性我们假设目标实体存在于实体字典中并将NIL识别或聚类NIL提及/实体指的是知识库中不存在的实体留给了未来的任务和数据集版本。 我们根据提及与相应实体标题之间的标记重叠对提及进行分类。高重叠标题与提及文本相同多个类别标题是提及文本后跟一个消歧短语例如提及字符串“蝙蝠侠”标题“蝙蝠侠乐高”模糊子串提及是标题的子串例如提及字符串“特工”标题“特工”。所有其他提及的内容被归类为低重叠。这些提及分别占据了数据集中大约5%28%8%和59%的提及量。 表2显示了数据集的一些统计信息。每个领域都有大量实体范围从1万到10万不等。训练集有49,275个标注的提及。为了检查在域内推广性能我们构建了两个存储备份集分别是“seen”和“unseen”每个集都有5,000个提及分别包含链接到仅在训练过程中见过或未见过的实体。验证集和测试集各有10,000个提及都是未见过的。 表格2基于Wikia的零次实体链接数据集。 表3展示了数据集中的实体和提及示例。在不同领域中用于提及和实体描述的词汇和语言差异很大。除了获取特定领域的知识外理解实体描述和进行推理也是解决提及所必需的。 表3来自《加冕街》和《星球大战》的例子展示了不同的语言使用导致了实体和提及候选者之间的差异。注意不同世界之间的语言使用差别很大。 4 实体链接模型 我们采用了一个由快速候选生成阶段和更昂贵但更强大的候选排名阶段组成的两阶段流程。 4.1 生成候选 在没有别名表进行标准实体链接的情况下一个自然的替代方法是使用IR方法进行候选生成。我们使用BM25这是一种TF-IDF的变体用于测量提及字符串和候选文档之间的相似性。通过Lucene的BM25评分检索到的top-k实体用于训练和评估。在我们的实验中k设置为64。前64个候选者的覆盖率平均不足77%这表明任务的难度较大并且在候选者生成阶段仍有很大的改进空间。 4.2 候选排序 由于比较两种文本上下文中的提及和候选实体描述的任务类似于阅读理解与自然语言推理任务我们采用了一个基于深度TransformerVaswani等人2017的架构该架构在这些任务上取得了最先进的性能Radford等人2018Devlin等人2019。 正如BERTDevlin等人2019中所述上下文中的提及m和候选实体描述e每个由128个词片组成被连接在一起并作为序列对输入到模型中同时加上特殊的开始和分隔符([CLS] m [SEP] e [SEP])。提及的单词通过一个特殊的嵌入向量添加到提及单词的嵌入中。转换器编码器产生一个向量表示hm,e它是输入对的最后一个隐藏层输出特殊池化标记为[CLS]。给定候选集中的实体以w⊤hm,e的形式进行评分其中w是一个学习到的参数向量模型使用softmax损失进行训练。在我们的实验中使用了一个具有12层、隐藏维度大小为768和12个注意力头的架构。我们将这种模型称为全Transformer。通过使用Transformer同时编码实体描述和上下文中的提及它们可以在每一层中相互关注。 请注意之前用于实体链接的神经方法并没有探索这种带有深度交叉注意力的架构。为了评估这一方法与之前工作的不同之处的价值我们实现了以下两个变体(i) 池化式转换器这是一种类似于双子网络的结构它使用两个深度变换器分别从上下文中提取提及内容的单向量表示hm和候选实体的单向量表示he它们的输入分别是上下文中的提及内容和实体描述以及特殊标记来指示文本的边界([CLS] m [SEP]) 和 ([CLS] e [SEP])输出是在特殊开始标记处的最后一个隐藏层编码。评分函数是hm⊤he。在许多以前的工作中例如Gupta等人2017年已经使用了两个组件的单个向量表示。(ii) Cand-Pool-Transformer一种变体它使用单个实体向量表示但可以像Ganea和Hofmann2017那样关注提及的个体标记及其上下文。 这种架构还使用了两个Transformer编码器但引入了一个额外的注意力模块使得它可以关注提及在上下文中的个体标记表示。 在实验部分我们还比较了重新实现的Gupta等人2017和Ganea和Hofmann2017它们与Pool-Transformer和Cand-Pool-Transformer类似但具有不同的神经网络架构用于编码。 5 适应目标世界 我们关注使用无监督预训练来确保下游模型对目标领域数据具有鲁棒性。预训练存在两种通用策略1任务自适应预训练和2开放语料库预训练。我们在下面描述这两种策略并提出一种新的策略领域自适应预训练DAP它与现有的两种方法相辅相成。 任务自适应预训练 Glorot 等人2011年陈等人2012年杨和艾森斯坦2015年等等对源域和目标域的无标签数据进行联合预训练目的是发现能够泛化到不同域的特征。在预训练之后模型将在源域的标注数据上进行微调。 开放语料库预训练 这种方法不是显式地适应目标领域而是简单地在大量语料库上进行无监督的预训练然后在源域标签数据上进行微调。这种做法的例子包括 ELMoPeters 等人2018年、OpenAI GPTRadford 等人2018年和 BERTDevlin 等人2019年。直观地说如果开放语料库足够大且多样化那么目标领域分布很可能会通过预训练来捕捉到一部分。确实开放语料库预训练已被证明对离域性能的提升远大于在域性能He等2018。 领域自适应预训练 除了其他方法的预训练阶段外我们提出在中间插入一个领域的自适应预训练DAP阶段其中模型仅在目标域数据上进行预训练。与往常一样DAP之后是一个最终的源域标签数据上的微调阶段。DAP的直觉是表征能力是有限的因此模型应该优先考虑目标域表示的质量。 我们引入符号来描述预训练阶段的各种组合方式。 • Usrc 表示来自源世界文档分布的文本段的并集UWsrc1 … UWsrcn。 •Utgt 表示目标世界 Wtgt 的文档分布中的文本段。 •Usrctgt表示从 Usrc 和 Utgt 中随机交错的文本段。 •UWB 表示开放语料库中的文本段在我们的实验中是用于 BERT 的 Wikipedia 和 BookCorpus 数据集。 我们可以将一系列预训练阶段串联起来。例如UWB → Usrctgt → Utgt 表示模型首先在开放语料库上进行预训练然后在源域和目标域的组合上进行预训练接着在仅目标域上进行预训练最后在源域标注数据上进行微调。我们发现将不同的预训练策略串联起来可以提供累积的增益。 6 实验 预训练 在所有实验中我们使用BERT-Base模型架构。用于无监督预训练的Masked LM目标Devlin等人2019。对于多阶段预训练的语言模型和实体链接任务的微调我们遵循Devlin等人2019的建议使用较小的学习率2e-5。对于从头开始训练的模型我们使用学习率1e-4。 评估 我们将归一化的实体链接性能定义为在测试实例子集上的性能评估其中黄金实体是在候选生成期间检索的前k个候选人之一。未归一化的性能是在整个测试集上计算的。我们的基于信息检索的候选生成在验证集和测试集上的准确率分别为76%和68%排名前64位的召回率分别为76%和68%。未归一化的性能因此受到这些数字的上限限制。加强候选生成阶段可以提高未归一化性能但这超出了我们工作的范围。在一组世界中的平均性能是通过宏观平均来计算的。性能被定义为单个最佳识别实体前1名准确率的准确性。 6.1 基线 我们首先在表4中查看零次实体链接的一些基线。我们包括一些简单的基线如Levenshtein编辑距离和TF-IDF它们分别比较提及字符串与候选实体标题和完整文档描述之间的相似性以对候选实体进行排名。 表4零次实体链接的基线结果。在所有验证域上平均归一化的实体链接准确率。Usrctgt表示在训练和验证世界的未标记数据上进行的语言模型预训练。 我们重新实现了最近为实体链接设计的神经模型Ganea和Hofmann2017Gupta等人2017但并不期望它们表现良好因为原始系统是为那些有目标实体标注提及或元数据可用的设置而设计的。这些模型的糟糕表现证明了在零样本实体链接任务中使用强大的阅读理解模型的必要性。 在使用全Transformer模型时为了获得合理的性能预训练是必要的。我们展示了在任务语料库的不同子集Usrc、Utgt、Usrctgt上进行预训练的模型结果以及在外部大型语料库UWB上进行预训练的结果。 在表4中我们还比较了Pool-Transformer、Candidate-Pool-Transformer和Full-Transformer。Full-Transformer与其他变体之间的显著差距表明通过嵌入在Transformer中的交叉注意力机制允许两个输入之间进行细粒度比较的重要性。我们假设以前的实体链接系统不需要如此强大的阅读理解模型因为有很强的额外元信息可用。本文中剩余的实验在不另作说明的情况下都使用全变换器模型。 6.2 对未知实体和新世界 为了分析未见实体和领域迁移在零次实体链接中的影响我们通过在训练世界中保留的提及上进行预测评估在更标准的领域内实体链接设置下的性能。表5比较了针对不同实体分割的实体链接性能。不出所料从训练世界中看到的实体最容易链接到。对于来自训练世界的未见实体我们观察到性能下降了5个百分点。来自新世界的实体根据定义是未被看到的并在跨领域文本中提到被证明是最困难的。由于语言分布和实体集的转变我们观察到性能下降了11个百分点。这种巨大的泛化差距表明了适应新世界的重要性。 表格5全变换器UWB模型在训练和验证世界中已知和未知实体上的性能评估。 6.3 领域自适应预训练的影响 我们的实验表明DAP在三个最先进的预训练策略上有所改进 • Usrctgt任务自适应预训练它结合源数据和目标数据进行预训练Glorot等2011。 • UWB开放语料库预训练使用维基百科和BookCorpus进行预训练我们使用预先训练好的BERT模型(Devlin等2019)。 •UWB → Usrctgt这两个策略连在一起。虽然没有先前的工作将这种方法应用于领域适应但Howard和Ruder2018提出了一种类似的用于任务适应的方法。 结果如图2(a)所示。DAP通过在仅针对目标领域数据的额外预训练阶段来改进所有预训练策略。最佳设置UWB → Usrctgt → Utgt将所有现有策略串联起来。DAP在强预训练模型Devlin等2019的基础上提高了2%的性能。 图2左a使用领域自适应预训练的影响。我们在预训练后在源标签数据上微调所有模型。右b预训练模型的MLMMasked LM准确度与目标领域上微调模型的实体链接性能之间的关系。添加领域自适应预训练可以提高MLM准确度和实体链接性能。注释src表示所有8个训练世界的联合体我们一次适应一个目标世界。目标世界包括Wtgt1加冕街Wtgt2木偶秀Wtgt3冰球Wtgt4上古卷轴。†我们参考Glorot等人2011的论文了解在源数据和目标数据上训练去噪自编码器的想法而不是实际的实现。有关更多详细信息请参阅正文。 为了进一步分析DAP的结果我们绘制了目标未标记数据上Masked语言模型MLM准确度与最终目标归一化准确度在源标记数据上进行微调后之间的关系图如图2(b)所示。在目标未标记数据上增加一个额外的预训练阶段不出所料地提高了MLM的准确度。更有趣的是我们发现MLM准确度的提高总是伴随着实体链接准确度的提高。直观地说无监督目标的表现反映了学习到的表示的质量并且与下游性能密切相关。我们在实验中证明了这种趋势对于多种预训练策略都成立。 6.4 测试结果和性能分析 表6显示了在测试世界上的归一化和未归一化的实体链接性能。我们最好的模型将所有预训练策略串联在一起实现了归一化准确度为77.05%和未归一化准确度为56.58%。请注意未归一化准确度对应于从数万个候选实体中识别出正确的实体。 表6在测试域上的性能使用全Transformer。N. Acc表示归一化的准确率U. Acc表示未归一化的准确率。未归一化准确率的上限为68%这是候选生成阶段的前64名召回率。 为了分析模型犯的错误我们在表7中比较了不同提及类别的实体链接EL准确率。候选生成召回率64在低重叠类别中表现不佳。然而对于这些提及排名模型的表现与其他困难类别相当。因此通过加强候选生成可以显著提高整体实体链接准确率。 表7根据提及类别对测试域的性能分类。Recall64表示候选生成的前64名表现。N. Acc. 和 U. Acc. 分别是归一化和未归一化的准确率。 7 相关工作 我们在第2部分讨论了以前的实体链接任务定义并将它们与我们的任务进行了比较。在这里我们简要概述相关的实体链接模型和无监督领域适应方法。 实体链接模型 在给定提及边界作为输入的实体链接中可以将其分为候选生成和候选排名的任务。当频率信息或别名表不可用时以前的工作使用提及字符串与实体名称之间的相似度度量来进行候选生成Sil等2012Murty等2018。对于候选排名最近的工作采用了上下文中提及的分布式表示和实体候选人的神经模型来评分它们的兼容性。上下文中的提及已经使用诸如卷积神经网络Murty等2018、长短期记忆Gupta等2017或词袋嵌入Ganea和Hofmann2017等方法进行表示。实体描述已经使用类似架构进行表示。据我们所知虽然有些模型允许在单向量实体嵌入和上下文提及的标记表示之间进行交叉注意力但没有先前的工作在提及上下文和实体描述之间使用完全的交叉注意力。 以前与我们最相似的实体链接任务的工作主要是使用线性模型比较上下文中的提及和实体描述以及相关结构化数据Sil等2012。Sil等人2012还提出了一种远程监督方法该方法可以利用目标领域中提及的第一轮预测作为嘈杂的监督来重新训练领域内模型。我们相信这种方法与无监督表示学习相辅相成并可能带来额外的好处。在另一个与我们类似的任务中王等人2015使用集体推断和目标数据库关系在没有特定于领域目标数据库的标注训练数据的情况下取得了良好的性能。 集体推断是另一个有前途的方向但在没有元数据的情况下可能取得有限的成功。 无监督领域适应 在无监督领域适应方面有很多研究方法其中有一个已标注的源域训练集和目标域的未标注数据可用。在这个方向的大部分工作中人们假定训练和测试样本由xy对组成其中y属于一个固定的共享标签集Y。这个假设适用于分类和序列标注但不适用于零样本实体链接因为源域和目标域的标签是不相交的。 大多数最先进的方法是通过降噪训练目标来学习源域和目标域实例的非线性共享表示Eisenstein2018。在第5节中我们概述了这类工作并提出了一种改进的领域自适应预训练方法。 对抗训练方法Ganin等人2016年也适用于源域和目标域之间不共享空间Y的任务Cohen等人2018年以及多源域适应方法Zhao等人2018年Guo等人2018年与我们的工作互补并可以提高性能。 8 结论 我们为零镜头实体链接引入了一项新任务并为此构建了一个多世界数据集。该数据集可用作实体链接研究的共享基准重点研究那些没有标签提及、仅通过描述来定义实体的专业领域。通过将强大的神经阅读理解能力与领域自适应预训练相结合我们提出了一个强大的基准。 该任务的未来变体可以包含 NIL 识别和提及检测而不是提供提及边界。候选词生成阶段还有很大的改进空间。我们还希望联合解析文档中提及内容的模型能比单独解析这些内容的模型表现更好。 A 检验模型误差和预测 在表 8、9、10 和 11 中我们展示了一些提及和模型预测的示例。对于每个实例示例都显示了正确的黄金实体和模型的前 5 个预测结果。示例显示了以提及为中心的 32 个标记上下文和候选实体文档的前 32 个标记。 表 8《加冕街》中的提及和候选实体。 表 9《布偶团》中的提及和候选实体。 表 10《冰上曲棍球》中的提及和候选实体。 表 11《上古卷轴》中的提及和候选实体。
http://www.pierceye.com/news/247372/

相关文章:

  • 浦东新区手机网站建设wordpress 视频页面
  • 做课件最好的素材网站网站背景动图怎么做
  • 做网站时已做好了ps怎么倒入深圳燃气公司地址
  • 做类似淘宝的网站要多少钱亚马逊网站建设进度计划书
  • 够完美网站建设怎么把视频弄成超链接
  • 苏州网站建设哪家更好四川省建设工程信息网官网二建注册
  • 潍坊网站关键词推广湖南餐饮网站建设
  • 珠海网站建设优化推广win2008 iis7发布网站
  • 平安网站建设发挥了积极的作用wordpress 的数据库路径
  • 福州网站建设优化安阳县二中录取分数线2022
  • 如何建手机网站网站能否做二维码
  • 南京网站建设 雷仁网上海网站制作网络推广方法
  • 营销型网站怎么做安阳县有多少个乡镇
  • 网站评论 设计天气网站建设
  • 潍坊市住房和城乡建设局网站哈尔滨最新发布公告
  • 白云网站 建设信科网络制作网站软件网站
  • 房产网站的建设想发布oa网站 需要备案吗
  • 帮别人做钓鱼网站吗海口网站建设过程
  • 广州php网站建设做网站的公司推荐
  • 百度一下建设银行网站首页网上购物都有哪些网站
  • 装饰公司营销型网站建设idc服务器租赁
  • 广告投放跟网站建设一样吗视频网站能备案吗
  • 哪些网站可以找到兼职做报表的学校网站建设价格明细表
  • 域名购买哪个网站好wordpress 转载插件
  • 网站百度提示风险网站开发 安全
  • 厦门网站建设建网站如何做一个网页项目
  • 锦州市网站建设腾讯企点怎么群发
  • 移动端网站开发哪家好总结格式模板
  • 东山县建设银行网站民宿网站开发的开题报告
  • 北京企业网站seo平台社交网站模板下载