超链接 网站,网站建设网上商城,门户网站建设意义,最新的网站开发技术MP-Former: Mask-Piloted Transformer for Image Segmentation
https://arxiv.org/abs/2303.07336 mask2former问题是#xff1a;相邻层得到的掩码不连续#xff0c;差别很大 denoising training非常有效地稳定训练时期之间的二分匹配。去噪训练的关键思想是将带噪声的GT坐标…MP-Former: Mask-Piloted Transformer for Image Segmentation
https://arxiv.org/abs/2303.07336 mask2former问题是相邻层得到的掩码不连续差别很大 denoising training非常有效地稳定训练时期之间的二分匹配。去噪训练的关键思想是将带噪声的GT坐标与可学习查询并行地送到Transformer解码器中并训练模型去噪和恢复GT边框坐标。MPFormer去噪训练的思想从DN-DETR来改进的mask2former模型。
MPformer送入class embeddings作为查询给每层解码层送入GT masks作为attention masks然后让模型重建类别和masks。 mask2former提出的mask attention可以使得训练时容易收敛。作者发现使得Vit类模型容易收敛的一些常识为给可学习的查询明确的意义减少不确定性二是给交叉注意力局部限制更好的找到目标。因此作者认为给交叉注意力明确的导向可以提高分割性能。和DN-DETR不同MPformer噪声可选择可以没有。
作者把mask2former看做一个掩码不断精细化的过程一层的预测作为下一层的attention masks。
MPformer是每层将GTmask作为attention masks由于每层大小不一样所以把GT使用双线性插值到不同分辨率。
加噪声的三种方式 点噪声表现最好所以用的点噪声。 Label-guided trainingclass embeddings会对应一个classification lossclass embeddings加噪声。
两种噪声类别和掩码噪声的比例给的是0.2。
辅助函数 结果