当前位置: 首页 > news >正文

江西网站建设价格网站建设管理典型经验材料

江西网站建设价格,网站建设管理典型经验材料,进入wordpress后,运城网站建设网站文 | 花小花Posy小伙伴们#xff0c;好久不见呀#xff0c;小花又回来了#xff01;最近关注对比学习#xff0c;所以ACL21的论文列表出来后#xff0c;小花就搜罗了一波#xff0c;好奇NLPers们都用对比学习干了什么#xff1f;都是怎么用的呀#xff1f;效果怎样呀好久不见呀小花又回来了最近关注对比学习所以ACL21的论文列表出来后小花就搜罗了一波好奇NLPers们都用对比学习干了什么都是怎么用的呀效果怎样呀接收列表中有21篇论文题目包含了关键词“contrastive”。下图是题目的词云其中最显著的是使用对比学习去学习表示或者帮助语义理解还有机翻、摘要、关系抽取。小花选择了10篇有意思的论文跟大家分享方向包括句子表示[1-3]自然语言理解[4-6], 生成式摘要[7]意图检测[8]多模态理解[9], 机器翻译[10]。当然还有其它的比如用于事件抽取[12]、QA[13]等等大家感兴趣可以自行补充为了大家快速get到跟对比学习最相关的部分主要涉及论文中哪里用了对比对比的对象是谁。对比学习最重要的原料就是正例和负例的对比以及在不同的应用场景下应该如何构造合理的正例和负例如何设计对比损失函数。正负例的构造可以分为利用显式的数据增强方式构造正负例[3-5,8-10]或者通过在语义空间/模型层面采样/生成正负例[1-2,6]。从对比损失函数的使用上来讲可以分为与原始的MLM损失加和一起进行joint训练[1,5,10],或者进行pipeline训练[7-8]。下面有请今天的主角们登场大家开心食用从BERT中提取出句子向量的easy模式想必大家都超熟了使用[CLS]的表示或者使用不同的pooling操作。但这就够了嘛当然不够从预训练语言模型中提取出句子表示的最优方法是什么仍是研究者们在不断探索的问题。除了之前推送过的强者SimCSE以外下面前三篇的主题都是如何利用对比学习去学习到更好的句子/文本片段表示。[1] 自我引导的对比学习一个BERT不够那就两个Self-Guided Contrastive Learning for BERT Sentence Representationshttps://arxiv.org/pdf/2106.07345.pdf来自首尔大学讨论的问题是如何在不引入外部资源或者显示的数据增强的情况下利用BERT自身的信息去进行对比从而获得更高质量的句子表示文中对比的是BERT的中间层表示和最后的CLS的表示。模型包含两个BERT一个BERT的参数是固定的用于计算中间层的表示其计算分两步(1) 使用MAX-pooling获取每一层的句子向量表示 2使用均匀采样的方式从N层中采样一个表示另一个BERT是要fine-tune的用于计算句子CLS的表示。同一个句子的通过两个BERT获得两个表示从而形成正例负例则是另一个句子的中间层的表示或者最后的CLS的表示。文中还对比了不同负例组合的方式最后发现只保留CLS的表示和隐藏层的表示之间的对比忽略CLS和CLS以及中间层和中间层之间的对比是最优的即保留(1)(3)。这篇论文没有选择直接从底层数据增强角度出发是稍微偏模型方法的改进的侧重挖掘模型内部的信息。主实验是在STS和SentEval任务上测试的从结果来看的话仍然是SimCSE要好很多而且SimCSE操作起来是更简单的。不过本文也是提供了一个不一样的思路。[2] 花式数据增强ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transferhttps://arxiv.org/pdf/2105.11741.pdf来自北邮的工作也是研究如何在无监督的模式下学习更好的句子表示。该工作主要对比了使用4种不同的数据增强方式进行对比对句子表示的作用。模型是在STS任务上进行评估的。和SimCSE一样也用了NLI做监督整体性能比SimCSE低1-2个点。[3] 无监督文本表示DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representationshttps://arxiv.org/pdf/2006.03659.pdfDeCLUTR来自多伦多大学是NLP领域使用对比学习中较早的一篇去年6月份就放到arxiv上面了。文章研究的问题同样是如何利对比学习从大量无标注数据学习更好的通用句子表示文中的对比体现在两个方面对比来自不同文档的文本片段(span)的语义。如果两个文本片段(span)来自同一个文档那么他们的语义表示的距离应该相对较近否则距离远对比来自同一文档的文本span。当两个文本片段都来自同一个文档如果他们在文档中的位置距离比较近他们的语义表示距离近否则远。在采样正例的时候有些讲究。具体来讲是先从一个文档中采样N(1)个原始文本片段 (锚点span)然后从每个锚点span周围采样作为正例 span。采样规则是正例span可以与锚点span交叠、相邻、从属。负例是从一个batch中随机采样得到的。对比学习的损失函数是InfoNCE。模型整体的损失函数是InfoNCE和MLM的加和。实验是在SenEval benchmark(28个数据集上进行测试的包含有/半监督任务和无监督任务。有/半监督任务的baseline有InferSentUniversal Sentence Encoder和Sentence Transformers无监督任务的baseline有QuickThoughts。最显著的实验结果是DeCLUTR在大部分的数据集上取得了SOTA并且在无监督任务上取得了和有监督任务相当的结果。接下来两篇文章是关于如何利用对比学习提升自然语言理解任务的性能。[4] 论负例对对比学习的重要性CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understandinghttps://arxiv.org/pdf/2107.00440.pdf来自清华大学文章探讨的是如何利用对比学习提高模型的鲁棒性。在初步实验中发现用探针对句子语义进行轻微扰动模型就会预测错误。之前的对抗训练确实能够从扰动的样本中学习但是主要侧重于语义相似的扰动忽略了语义不同或者相反的扰动。这样的语义改变无法被对抗学习无法检测到。本文提出CLINE使用无监督的方法构造负样本。通过同时利用语义相似和相反的样例和原始样例进行对比模型可以侦测到扰动导致的语义的改变。正负例的构造正例是将句子中的词(名词、动词、形容词替换为其同义词. 负例是将句子中的词替换为其反义词或者随机选择的词。文中的损失函数由三部分构成掩码语言模型的MLM损失 检测当前词是否是被替换的词 的损失RTD InfoNCE对比正例和负例。有个小细节不太一样的是对比InfoNCE中并没有引入温度参数τ。实验是在NLU任务上进行的包括NLI(SNLI, PERSPECTRUM,) 情感分析(IMDB,MB) 阅读理解 BoolQ, 新闻分类(AG)。实验结果表明使用CLINE训练的模型可以同时在对抗测试集和对比测试集上提升性能。[5] 对比实例学习远距离监督关系抽取CIL: Contrastive Instance Learning Framework for Distantly Supervised Relation Extractionhttps://arxiv.org/pdf/2106.10855.pdf来自阿里巴巴-浙江大学前沿技术联合研究中心研究如何利用对比学习提高远距离监督的关系抽取任务的性能。从对比角度讲正例是同一关系下的实例对负例是不同关系的实例对。文中的重点是在有噪声的情况下如何构造正负例。CIL的baseline是多实例对比学习是将多个属于同一关系的实例放在一个bag中一起训练得到一个关系的表示。每个实例都被假设是表达了一个实体对之间的关系。正例直觉上讲对于一个实例的正例只要从同一个bag中随机sample一个就好或者使用bag的整体表示。但因为是远距离监督无法保证任意两个实例之间都一定表达了同一种关系同样也无法保证样例和bag的整体表示一定关系相同。如果这样强行构造正负例的话必然会引入噪声。文中采用的一种方式是对于插入/替换掉中不重要的词语还是数据增强。负例同样因为是远距离监督不能随便从一个别的bag中采样一个实例作为的负例那样噪声会比较大。因此文中采用了使用整个别的bag的表示作为负例能相对更好地降噪。模型的损失函数是InfoNCE对比损失和MLM损失的加权和。CIL在NYT10GDS和KBP三个数据集上取得较大提升。[6] Post-training中使用对比学习Bi-Granularity Contrastive Learning for Post-Training in Few-Shot Scenehttps://arxiv.org/pdf/2106.02327来自中山大学本文主要针对样本量稀少的场景如何使用对比学习先在无标注数据集进行post-training 然后再在有标注数据集上fine-tuning。对比方法互补的mask方法将一个输入进行多次mask第一次的mask的比例是, 第二次mask的时候只针对第一次mask中没被选择的token以的比例进行mask,所以两个句子被mask的部分是互补的第三次以此类推。 对比是在多个被mask的输入上进行的。这样做的好处是既可以避免太小时两个句子太相似导致对比损失迅速降到0也可以避免太大而导致模型无法恢复mask的内容。和SimCSE的直接两次dropout相比复杂了点但有异曲同工之妙。实验是在少样本GLUE上进行的只有20个样例的时候提升不是很明显样本100和1000的时候相比之前SOTA有轻微提升。[7] 对比学习生成式摘要SimCLS: A Simple Framework for Contrastive Learning of Abstractive Summarizationhttps://arxiv.org/pdf/2106.01890来自CMU蛮有意思的一篇文章。核心点是利用对比学习将文本生成看作是reference-free的评价问题。生成式摘要典型的框架是Seq2Seq之前也有工作将对比学习损失作为MLE损失的增强。不同的是这篇文章将两个损失用在了不同的阶段。文中将摘要生成分解为两个过程生成 和 评分选择。从而提出了two-stage的框架stage1是Seq2Seq模型仍然利用MLE损失生成候选摘要stage2引入对比学习利用参数化的评估模型对stage1中生成的候选进行排序。两个阶段是分开优化的都是有监督的。这里对比的是生成的候选摘要和原始文档。引入了一个raking loss 希望预测值和真实值接近希望每个候选值之间有差距。[8] 对比学习 意图检测Modeling Discriminative Representations for Out-of-Domain Detection with Supervised Contrastive Learning https://arxiv.org/pdf/2105.14289.pdf来自北邮模式识别实验室研究的问题是在Task-oriented的对话系统中如何检测用户query中的跟task/domain不相关的问题。比如你问一个银行的app语音助手我有多少余额它检测该问题为in-domain (IND) 的问题并给出回答但你如果问它我们一起健身的小伙伴都怎样呀我们不希望模型“不懂装懂”而是希望它可以检测该问题为out-of-domain (OOD)并引导用户提出domain相关的问题。下图是来自数据集[11]中的一个样例。OOD的检测方法分为有监督和无监督的两种。有监督的方式在训练时已知哪些数据OOD的所以在训练时可以将OOD的数据当成一个类型无监督方式训练的时候只有标注的IND数据。常用的方法是先利用IND数据学习类别的特征 (分类器然后使用检测算法计算IND样本和OOD样本的相似度。本文的先验假设是一个OOD检测模型依赖于高质量IND类别表示模型。之前的IND分类器虽然在IND数据上表现好应用到OOD时性能不高原因是类别间的间隔很模糊。所以该工作的核心是利用对比学习减小类内距离增大类间距离。更好的IND聚类促使更好的OOD分类。本文主要针对的是无监督OOD进行训练策略是先用有监督对比学习在IND数据上训练然后用cross-entropy损失对分类器fine-tune有监督对比学习的目标是拉近IND中属于拉近同一类别的意图推远不同类别的意图。因此:正例对来自同一个类别的数据 负例是不同类别的数据文中也使用了对抗攻击生成hard正例来做数据增强。文中的实验是比较全面的对比了不同scale的数据集不同的encoder不同的OOD检测算法。小花觉得这篇有意思主要是因为OOD检测的思路不仅可以用在意图检测领域还可以直接扩展到别的领域比如用于关系抽取中检测新的关系。接下来的两篇论文都利用了任务本身的属性将对比扩展到了多对多上同时包含单个模态/语言的对比和跨模态/跨语言的对比。[9] 对比学习 多模态学习UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learninghttps://arxiv.org/pdf/2012.15409.pdf来自百度的UNIMO利用跨模态的对比学习将文本和视觉信息对齐到一个统一的语义空间。之前也有统一训练文本和视觉的模型比如ViLBERT, VisualBERT但是它们只能利用有限的文本-图像对齐的数据且无法有效的适应到单模态的场景。本文要解决的是问题是如何通过对比学习同时利用单模态和多模态的数据来实现更好的图像-文本对齐对比部分核心的点是通过花式重写原始的caption来生成正例和负例。对于一对对齐的图像-文本数据通过文本重写的方式构造多模态的正负例样本同时通过文本/图像检索的方式构造单模态的正例样本。 正负例样本又分为多个level包括句子级别、短语级别、词级别。比如句子级别的多模态的正例是通过back-translation生成的负例是利用当前图片的字幕从其它图片的字幕中找相似的得到的。UNIMO的优势在于可以同时利用单模态数据和多模态对齐数据进行训练测试时在单模态的理解和生成任务上都表现很好。[10] 对比学习 机器翻译Contrastive Learning for Many-to-many Multilingual Neural Machine Translation https://arxiv.org/pdf/2105.09501.pdf看到这篇文章的时候脑子里想的是“一生二二生三三生万物”。在对比学习中只要存在一个对象我们就可以给它找到或者造一个对比对象让它们去自我对比自己进化当多个对象成立的时候我们都不需要造了只需要利用就好。多对多机翻就是典型的例子。这篇文章来自字节跳动AI Lab研究的问题是如何学习更好的通用跨语言表示来获得更好的多语言翻译效果尤其是当源语言或者目标语言不是English的时候。本文的先验假设是如果两句话说的是同一个意思即使它们使用的语言不相同那么它们在语义空间中的表示也应该接近。所以本文的训练目标是减少相似句子表示之间的距离增大不相关句子表示之间的距离。文中使用了fancy的数据增强同时使用单语和多语的数据进行对比。方法简单效果好实验solid值得细品。插播一个有趣的游戏你玩过词联想的游戏嘛什么还没有来来来奉上链接https://smallworldofwords.org/zh萌屋作者花小花Posy目前在墨尔本大学NLP组读Ph.D.主要感兴趣方向包括常识问答知识图谱低资源知识迁移。期待有生之年可见证机器真正理解常识的时刻! 知乎ID花小花Posy作品推荐1.丹琦女神新作对比学习简单到只需要Dropout两下2.对比学习有多火文本聚类都被刷爆了…3.Facebook提出生成式实体链接、文档检索大幅刷新SOTA4.我拿乐谱训了个语言模型5.一句话超短摘要速览752篇EMNLP论文后台回复关键词【入群】加入卖萌屋NLP/IR/Rec与求职讨论群后台回复关键词【顶会】获取ACL、CIKM等各大顶会论文集 [1] DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations https://arxiv.org/pdf/2006.03659.pdf[2] Self-Guided Contrastive Learning for BERT Sentence Representations https://arxiv.org/pdf/2106.07345.pdf[3] ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer https://arxiv.org/pdf/2105.11741.pdf[4] CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understanding https://arxiv.org/pdf/2107.00440.pdf[5] CIL: Contrastive Instance Learning Framework for Distantly Supervised Relation Extraction https://arxiv.org/pdf/2106.10855.pdf[6] Bi-Granularity Contrastive Learning for Post-Training in Few-Shot Scene https://arxiv.org/pdf/2106.02327[7] SimCLS: A Simple Framework for Contrastive Learning of Abstractive Summarization https://arxiv.org/pdf/2106.01890[8] Modeling Discriminative Representations for Out-of-Domain Detection with Supervised Contrastive Learning  https://arxiv.org/pdf/2105.14289[9] UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning https://arxiv.org/pdf/2012.15409.pdf[10] Contrastive Learning for Many-to-many Multilingual Neural Machine Translation https://arxiv.org/pdf/2105.09501.pdf[11] An Evaluation Dataset for Intent Classificationand Out-of-Scope Prediction https://aclanthology.org/D19-1131.pdf[12] CLEVE: Contrastive Pre-training for Event Extraction https://arxiv.org/pdf/2105.14485.pdf[13] KACE: Generating Knowledge Aware Contrastive Explanations for Natural Language Inference (not public yet)[14] xMoCo: Cross Momentum Contrastive Learning for Open-Domain Question Answering (not public yet)
http://www.pierceye.com/news/378612/

相关文章:

  • 怎样登录建设互联网站厦门海绵城市建设官方网站
  • 网站怎么做权重互联网平台推广怎么做
  • 网站建设如果登录失败男生和男生做污的视频网站
  • 备案ip 查询网站查询系统制作一个网站的成本
  • 微网站排版p9制作公司
  • 国产在线免费观看高甜电影推荐爱站网seo工具包
  • 建设银行官方网站首页入口建立网站如何推广
  • 网站登录界面图片用什么软件做wordpress qiniu
  • 设计素材网站好融资吗关键词排名怎么做好
  • 亚洲购物网站排名网站开发看掉一些功能
  • 网站开发 需求dnf盗号网站怎么做
  • 淘宝客免费网站建设宝塔搭建wordpress主机地址
  • 可以看网站的浏览器wordpress+博客+简书
  • 游戏源码网站免费网站模板有哪些内容
  • 江西网站优化广东网站设计有名的公司
  • wordpress整合dplayer关键词优化举例
  • wordpress怎么设置跳站外链接番禺网站建设培训学校
  • 怎样建立网站平台新网站应该怎么做
  • 根据颜色找网站济南做网站公司排名
  • 面对面视频 网站开发网络科技加我qq是干嘛
  • 如何登录网站制作平台百度旧版本
  • 广东营销型网站建设报价定制商品的app
  • 网站导航常用关键字电子商务网站设计内容
  • 建设vip网站相关视频wordpress 修改用户头像
  • 考百度指数 某个关键词在某个行业网站上的wordpress与Wix对比
  • 机器人网站建设规划书福州网站制作怎样
  • 自己创建一个网站需要多少钱2023最建议买10款手机
  • 寻找富阳网站建设国内个人网站欣赏
  • 企业自建站城市建设模拟游戏官方网站
  • 网站建设数据库类型建立网站信息发布登记制度