当前位置: 首页 > news >正文

网站设计参考网址成立公司需要几个人

网站设计参考网址,成立公司需要几个人,文本资料分享网站 建设,织梦dedecms微信微网站模板文 | ZenMoore编 | 小轶如果让大家举一个最成功的自监督模型的例子#xff0c;尤其对于各位 NLPer#xff0c;肯定毫不犹豫地祭出我大 BERT. 想当年 BERT 打了一个名叫 MLM (Masked Language Model) 的响指#xff0c;直接成了 NLP 灭霸。视觉界、语音界闻声而来#xff0c… 文 | ZenMoore编 | 小轶如果让大家举一个最成功的自监督模型的例子尤其对于各位 NLPer肯定毫不犹豫地祭出我大 BERT. 想当年 BERT 打了一个名叫 MLM (Masked Language Model) 的响指直接成了 NLP 灭霸。视觉界、语音界闻声而来纷纷开启了 BERT 的视觉化、语音化的改造。视觉界以 patch 或者像素类比 NLP 的 token语音界虽然不能直接找到 token 的替代但是可以专门做 quantification 硬造 token.但是思考这样一个问题为什么这些图像或者语音模态的自监督非要一股 NLP 味儿呢要知道虽然确实有生物学的研究表明人类在进行视觉上的学习时会使用与语言学习相似的机制但是这种 learning biases 并不一定完全可以泛化到其他模态。所以有没有什么办法能够把不同模态的自监督表示学习统一起来不再是仿照 MLM 做 MIM (Masked Image Modelling)、MAM (Masked Audio Modelling)昨天Meta AI 原 Facebook发布最新自监督学习框架 Data2Vec立即在整个 AI 圈疯狂刷屏。这份工作或许预示着——多模态的新时代即将到来。本文就为大家简单解读一下这份 AI 圈的今日头条究竟做了些什么。论文标题:Data2vec: A General Framework for Self-supervised Learning in Speech, Vision and Language论文作者:Alexei Baevski, Wei-Ning Hsu, Qiantong Xu, Arun Babu, Jiatao Gu, Michael AuliMeta AI, SambaNova论文链接:https://ai.facebook.com/research/data2vec-a-general-framework-for-self-supervised-learning-in-speech-vision-and-language模型算法编码、掩码首先对于三个不同的模态文本、图像、语音采用不同的编码方式以及掩码方式。模态特定的编码方式 文本模态 : token embedding图像模态参考 ViT[1, 2]以 image patch 为单位经过一个线性变换(linear transformation)语音模态使用多层一维卷积对 waveform 进行编码[3]。模态特定的掩码方式文本模态对 token 掩码图像模态block-wise masking strategy [2]语音模态对语音模态来说相邻的音频片段相关性非常大所以需要对 span of latent speech representation 进行掩码 [3]掩码符为训练后得到的 MASK embedding token而不是简单的 MASK token原因且看下文。Student : 模型训练之后在 student-mode 中根据 masked input 对掩码位置的表示进行预测。需要注意的是这里模型预测的并不是掩码位置(如 text token, pixel/patch, speech span)而是掩码位置经过模型编码后的表示。因为这个表示经过了 Attention/FFN 等一系列模块的处理自然是模态无关的不仅如此它还是连续的(continuous)编码了丰富的上下文语义(contextualized)。如果把输入空间比作物理世界表示空间比作精神空间。那么作者相当于直接在“精神空间”中想象被遮住的部分(mask),颇有一种“梦里看花”的感觉。上次见到这“梦一般”的算法还是 Hinton 老爷子的 Sleep-Wake[4].具体地训练目标为如下的 smooth L1 loss其中 为使用 teacher model 构建的 training target 为 student model 在时刻 的输出 是超参用来调整 L1 损失的平滑度。Teacher : 数据构建最后还有一个问题既然变成了对表示的掩码而非对原输入的掩码那么训练数据怎么来呢这就是 teacher-mode 的妙用。与 student-mode 不同的是teacher-mode 的输入不再是 masked input而是 original input, 这样掩码位置对于 teacher 来说就是可见的自然能够得到掩码位置对应的表示而这个表示就是 student-mode 的 training target.当然为了保证“师生”两个模型的一致性两者的参数是共享的。另外又为了在训练初期让 Teacher 的参数更新更快一些作者采用了一个指数滑动平均(EMA).其中 是 Teacher 的参数 是 Student 的参数 类似于学习率也是一个带有 scheduler 的参数。具体地training target 这么构建(按步骤)找到 student-mode 输入中被 mask 掉的 time-step计算 teacher network 最后 K 层 transformer block 的输出归一化 :平均 : , 即 training target.对于第三步的归一化语音模态采用 instance normalization 文本和图像模态采用 parameter-less layer normalizationRepresentation Collapse在实验中作者还遇到了 Representation Collapse 的问题模型对于所有掩码片段输出非常相似的 representation.这个已经有好多解决办法啦~ 对于本文有以下几种情况学习率太大或者其 warmup 太短通过调参解决指数滑动平均太慢了还是调参对于相邻 target 相关性强的模态或者掩码片段较长的模态 (比如语音模态)设置 variance 罚项[5]或者归一化[6]归一化的效果更好一些。而对于 targets 相关性不那么强的模态例如 NLP/CV 等momentum tracking 就足够。与同类工作的对比与其他 NLP 自监督算法的对比和 BERT 不同本文预测的并不是离散 token, 而是 continuous/contextualized representation.好处1: target 不是 predefined (比如有预定义的词表等), target set 也是无限的 (因为是连续的)因此可以让模型更好的适配特定的输入好处2考虑了更多上下文信息与其他 CV 自监督算法的对比与 BYOL[6]/DINO[7] 等本文新增了掩码预测任务而且是对多层进行回归(即参数 K)与 BEiT[2]/MAE[8] 等带掩码预测任务的算法本文对 latent representation 进行预测与其他 Speech 自监督算法的对比:与 Wav2vec2.0[3]/HuBERT[9] 等 : 其他工作一般需要另外预测 speech 中的离散单元或联合学习或交互学习而本文不需要 这种 quantification.与多模态预训练的对比本文工作重点不在于多模态任务或者多模态训练而在于如何把不同模态的自监督学习目标统一起来。实验结果计算机视觉实验任务Image Classification实验结论可以看到本文工作有较明显的改进语音实验任务Automatic Speech Recognition实验结论改进很明显Natural Language Processingwav2vec 2.0 masking : masking span of four tokens[3]实验任务GLUE实验结果作者仅仅对比了 19 年的两个 baseline, 说明在文本模态上的改进效果仍然受限但是这个分数也非常好了Ablation 1 : layer-averaged targets这也是和 BYOL[6]/DINO[7] 等模型的一大区分对多层进行回归从图表可见比起只使用 top layer, 平均多层输出来构建 target 是很有效的Ablation 2 : 使用 Transformer 的哪一层基于语音模态进行实验发现使用 FFN 层输出最有效使用自注意力模块的输出基本没用。原因自注意力模块在残差连接之前得到的 feature 具有很大的偏差(bias)。写在最后也许在表示空间中而非输入空间中进行掩码预测的自监督表示学习是自监督未来的重要方向不过作者也指出 Data2Vec 的一大局限编码方式以及掩码方式仍然是 modality-specific 的。能否使用类似于 Perceiver[10] 的方式直接在 raw data 上进行操作或者是否真的有必要统一各个模态的 encoder 呢犹记得卖萌屋作者群里有过这么一个分享是 Yoshua Bengio 等在 EMNLP20 的文章[11]里面界定了 NLP 发展的五个阶段毋庸置疑多模态的火热标志着我们正在进入第三个阶段多模态时代。Data2Vec 巧妙地使用“梦里看花”的方式让我们看到了自监督的强大威力也让我们意识到模态统一大业就在眼前也许现在的 Data2Vec只是一颗不能发挥全部威力的宝石就像 Word2Vec 一样但相信在不久的将来从 Data2Vec 出发能够看到一统多模态的灭霸就像 BERT 那样山雨欲来风满楼萌屋作者ZenMoore来自北航中法的本科生数学转码 (AI)想从 NLP 出发探索人工认知人工情感的奥秘... 个人主页是 zenmoore.github.io, 知乎 ID 是 ZenMoore, 微信号是 zen1057398161, 嘤其鸣矣求其友声作品推荐一文跟进Prompt进展综述15篇最新论文逐一梳理图灵奖大佬谷歌团队为通用人工智能背书CV 任务也能用 LM 建模以4%参数量比肩GPT-3Deepmind 发布检索型 LM或将成为 LM 发展新趋势后台回复关键词【入群】加入卖萌屋NLP/IR/Rec与求职讨论群后台回复关键词【顶会】获取ACL、CIKM等各大顶会论文集 [1] An image is worth 16x16 words: Transformers for image recognition at scale.https://arxiv.org/abs/2010.11929[2] Beit: BERT pre-training of image transformers.https://arxiv.org/abs/2106.08254[3] Baevski, A., Zhou, Y., Mohamed, A., and Auli, M. wav2vec 2.0: A framework for self-supervised learning of speech representations. In Proc. of NeurIPS, 2020b[4] The wake-sleep algorithm for unsupervised neural networkshttps://www.cs.toronto.edu/~hinton/csc2535/readings/ws.pdf[5] Vicreg: Varianceinvariance-covariance regularization for self-supervised learning. https://arxiv.org/abs/2105.04906[6] Bootstrap your own latent: A new approach to self-supervised learninghttps://arxiv.org/abs/2006.07733[7] Emerging Properties in Self-Supervised Vision Transformershttps://arxiv.org/abs/2104.14294[8] Masked Autoencoders Are Scalable Vision Learnershttps://arxiv.org/abs/2111.06377[9] HuBERT: Self-Supervised Speech Representation Learning by Masked Prediction of Hidden Unitshttps://arxiv.org/abs/2106.07447[10] Perceiver: General Perception with Iterative Attentionhttps://arxiv.org/abs/2103.03206[11] Experience Grounds Languagehttps://arxiv.org/abs/2004.10151
http://www.pierceye.com/news/527711/

相关文章:

  • 军队营房基础建设网站wordpress 标签云集
  • 苏州建设建设信息网站如何给自己的店做小程序
  • 沈阳微营销网站制作厨师培训机构 厨师短期培训班
  • 个人备案用作资讯网站网站开发yuanmus
  • 大连网站建设 选领超科技网站建设实录音乐
  • 上海网站建设流wordpress关闭会员
  • 网站运营的目的及意义pc网站怎么适配移动端
  • 网站深圳优化建设10月上海娱乐场所又要关门了
  • 怎么做网页文件打开别的网站河南省城乡和住房建设厅
  • 泰州公司做网站成都网页设计培训中心
  • 网站业务需求文档网站正在建设中 动态
  • 一级a做爰电影片免费网站姑苏区住房建设局网站
  • 宁夏建设教育协会网站医院网站跳出率高
  • 网站建设佰首选金手指二关于网站建设的职位
  • 网站建设公司商务网站项目书中堂东莞网站建设
  • 欧美品牌网站设计wordpress好用的文章编辑器
  • 长春网站建设q479185700強wordpress数学公式的代码
  • 郑州软件app开发公司嘉兴优化网站排名
  • 可以建微信网站的做网站的项目开发计划书
  • 湖北网站建设模板下载太原线上教学
  • 西宁网站建设开发公司开发网站监控工具
  • 外贸网站优势杭州百度快速排名提升
  • 制作个人网站论文ipage wordpress
  • 十堰建设网站首页优化大师免安装版
  • 深圳建设企业网站公司敬请期待素材
  • 网络营销网站建设课程wordpress 文章描述
  • 网站制作有什么好的介绍北京网站建设及推广招聘
  • 殡仪馆做网站的好处制作响应式网站报价
  • 网站建设平台杭州做网站前台后台是怎么连接的
  • 太原市0元网站建设wordpress wcps