当前位置: 首页 > news >正文

国外vi设计网站公司形象墙效果图

国外vi设计网站,公司形象墙效果图,建设银行新加坡招聘网站,做网站得基础首先是关于给了提示然后做分割的一些方法的总结#xff1a; 左边一列是prompt类型#xff0c;右边一列是使用各个类型的prompt的模型。这些模型有分为两大类#xff1a;Generic和Refer#xff0c;通用分割和参考分割。Generic seg 是分割和提示语义概念一样的所有的物体 左边一列是prompt类型右边一列是使用各个类型的prompt的模型。这些模型有分为两大类Generic和Refer通用分割和参考分割。Generic seg 是分割和提示语义概念一样的所有的物体也就是提示是狮子就把图片中所有狮子分割出来Refer seg 是根据用户提示分割特定的物体也就是提示是狗狗的一只耳朵分割出来的也是狗狗的耳朵。可以看到本文DINOv填补了视觉提示Visual prompt方法的空白。 DINOv可以做Generic和Refer。 Generic和Refer的例子 这篇文章不是简单的prompt而是in-context learning. 输入是一组图片-提示对a set of reference image (Q) - visual prompt (A) pairs输入的提示可以是mask、涂鸦scribble、框等输出目标图片的mask。 DINOv的框架 给一些参考图片 相应的视觉提示 要预测的图片即目标图片 视觉提示可以是masks, boxes, scribbles, points, etc. 参考图片可以和目标图片一样这时退化为单图片视觉提示分割问题 DINOv主要由Enc、PromptEncoder、Decoder组成 Encvision encoder提取图片特征 PromptEncoderprompt encoder结合图片特征和用户提供的提示特征来提取提示特征。 Decoder基于分割查询和视觉提示特征产生mask和视觉概念。 输入参考图片和视觉提示Enc提取图片特征Z然后将Z和视觉提示输入到PromptEncoder提取参考视觉提示Freference visual prompt F也就是这一步是为了生成和图片特征相关的prompt。然后从F中采样出查询视觉提示特征Qpsample the query visual prompt features Qp.。公式表示如下 除了觉提示特征Qp还引入了分割查询Qssegmentation queries Qs作为候选提取proposal extraction。然后用共享解码器解码Qp和Qs解码过程中和目标图片特征Z做了交叉注意力。公式表示 Os是解码的分割查询特征segmentation query featuresOp是解码的目标视觉查询特征target visual prompt featuresM、B是预测的mask和boxCg 和 Cr 是预测的通用分割和参考分割的匹配分数这两个分数通过PromptClassifier计算Os和Op的相似性得到。 PromptClassifier 通用分割任务的目标是将Os分类到不同的类别当采用视觉提示的时候差别在于Op作为类别embeddings的使用。 Np 和 Ns 分别是视觉提示和物体特征的数量。g是线性映射。相当于得到的Cg矩阵每一列代表一个物体特征每一行代表一个类别每一列都被分类到了某一行代表的那个类别。 对于参考分割任务目标和通用分割任务不一样。参考分割任务中视觉提示用于识别目标图像中最匹配的实例可以看做一个分类问题。训练中目标图片和参考图片一样 h是线性映射。 上面两个式子在实现中对于通用分割任务是为每一个mask proposal 找到最适合的视觉提示而参考分割任务相反是给定一个视觉提示来匹配特定的mask proposal。也就是说一个是给了mask proposal然后从一堆视觉提示里找最合适的另一个是给了视觉提示然后从一堆mask proposal里面匹配特定相应的。如上面DINOv框架图右边b、c图所示。 Visual Prompt Formulation DINOv的核心部分是视觉提示机制。 它提取与各种形式的视觉提示所指示的位置相对应的视觉特征,为了捕捉到细粒度视觉特征使用了三层mask交叉注意力层Mask Cross Attention Layer。每层使用的是Enc提取的不同尺度的特征使用视觉输入作为掩码使用可学习的查询向量处理相应位置的特征得到视觉提示特征。 我理解的是这应该是用的参考图片提取的不同尺度的特征提供更新prompt的特征然后输入的prompt那个图片提供mask再加一个可学习的提示查询通过从特征里面查询得到最终的提示。有时间再看代码查证。 Prompt Sampling 得到prompt之后做了一个采样分别对通用分割和参考分割采用两种采样策略。 对参考分割用“自参考”’的方法“self-referring” approach参考图像和目标图像相同从一个实例中采样一个提示并训练模型引用生成的mask指向的是同一个实例。好处是这种方法使我们能够利用大量的分割数据如SA-1B来有效地训练我们的模型。虽然训练时用的同一个实例但是模型推理时可以泛化到使用不同目标图片即cross-image referring。 对通用分割训练阶段和推理阶段不太一样。训练阶段采样正负提示样本。所有图片同语义一类别的F归到一组对每一组随机的采样变量个数范围[1,N]的样本然后使用一个聚合过程产生Qp。这个Qp会直接送入decoder然后和目标图片交互融合计算一下得到最终的目标视觉提示Qp。采样的时候采用个数不确定是因为给定的一批图像可能不包括数据集中存在的所有语义类别从而导致在训练过程中语义类别的数量可变。 上面通用分割训练过程采样伪代码如下 对于通用分割的推理阶段采样策略在推理阶段以COCO数据集为例基于训练阶段建立的所有语义类别的掩码提示预提取相应的视觉提示特征。然后采用随机选择方法为每个语义类别选择N默认为16个特征。这些选定的特征作为每个类别的代表性视觉提示功能。 简单来说应该是从训练集里面选出每个类别的视觉提示特征然后从里面每个类别采样16个样本。 Decoder Query Formulation 分割查询也是两种类型。对于通用分割是类似MaskDINO的可学习查询。 对于参考分割使用和Semantic-SAM一样的交互式点查询。与Semantic-SAM类似视觉提示点或框都被转换为锚框格式然后每个视觉提示的位置将被编码为位置查询。每个位置查询都是重复的然后与不同粒度的内容查询组合作为最终的分割查询。对于SA-1B上的训练为了避免模型上过多的计算开销我们选择性地将该视觉概念中包含的点的子集采样为正点查询。同时我们从剩余区域中随机抽取一个子集作为负点。在推理阶段我们在20×20均匀分布网格上对初始点位置查询进行采样作为单个帧的初始点位置。 实验部分
http://www.pierceye.com/news/925226/

相关文章:

  • 网站建设公司 经营资质wordpress文学
  • 手机网站建设请示常州建设网站公司哪家好
  • 网站开发报价ppt重庆沙坪坝有哪些大学
  • 牛商网做的包装盒网站怎么在门户网站上发布
  • 北京网络公司建站成品app直播源码下载
  • 帮忙建站的公司百度收录好的网站排名
  • 芯火信息做网站怎么样郑州网站建设老牌公司
  • 龙华营销型网站建设在线生成短链接网址
  • 深圳做公司网站关键词规划师工具
  • 长春市建设信息网站sem代运营推广公司
  • 宜昌网站建设平台有经验的盐城网站开发
  • wordpress 众筹网站模板wordpress首页只显示一篇文章
  • 嘉兴seo网站推广网页设计与制作课程结构
  • 江苏 网站 备案百度站长之家工具
  • 新加坡 网站建设专业简历制作网站有哪些
  • 河北外贸网站建设大连建设网球场价格
  • 北京企业网站制作哪家好新余商城网站建设
  • 网站建设对客户的优势单位建设网站的目的
  • seo网站建站公司的主页珠江夜游微信公众号
  • 建筑人才网 中高端招聘网站专业网站开发开发
  • 江门官网建站公司wordpress get_tax_meta
  • 云南省建设系统网站wordpress wdlog主题
  • 做医疗网站颜色选择网站改版301怎么做
  • 淘宝网站建设步骤做网络网站需要三证么
  • 免费网站域名注册申请视频网站开发策划书
  • 如何在社交网站做销售无锡做网站企业
  • 网站建设首选唯美谷wordpress小程序编辑
  • openwrt 网站开发北京建机职业技能鉴定中心官网
  • 莱芜新站优化wordpress打卡签到领红包
  • wordpress 网站上传到服务器免费在线自助建站