英文网站设计哪家好,免费网站app使用排名,网页制作网站素材,做爰午夜福利全过程视频网站除了前面讲过的rpn与fast rcnn交替训练外#xff0c;faster rcnn还提供了一种近乎联合的训练#xff0c;姑且称为end2end训练。
根据论文所讲#xff0c;end2end的训练一气呵成#xff0c;对于前向传播#xff0c;rpn可以作为预设的网络提供proposal.而在后向传播中…除了前面讲过的rpn与fast rcnn交替训练外faster rcnn还提供了一种近乎联合的训练姑且称为end2end训练。
根据论文所讲end2end的训练一气呵成对于前向传播rpn可以作为预设的网络提供proposal.而在后向传播中rpn,与fast rcnn分别传导而汇聚到shared layer.,但是没有考虑掉roi pooling层对于predicted bounding box的导数。如下图 我们这里截取RossGirshick 在ICCV15上的pptTrainingR-CNNs of various velocities Slow, fast, and faster 对于roi pooling层显然依赖于图像本身和roi区域。对于fast rcnn来讲roi是固定的而对于faster rcnn来说roi是通过rpn产生的rpn不定所以roi的生成依赖于
图像。 但是由于最大池化的作用所以没有办法对roi的四个位置求导。 所以忽略掉对于roi的导数当然了如果改变max pooling的方式比如如下所说采取双线性插值这样输出既有roi的坐标也有图像像素值则可以关于roi求导。 根据github上py-faster-rcnn描述 For training smaller networks (ZF, VGG_CNN_M_1024) a good GPU (e.g., Titan, K20, K40, ...) with at least 3G of memory sufficesFor training Fast R-CNN with VGG16, youll need a K40 (~11G of memory)For training the end-to-end version of Faster R-CNN with VGG16, 3G of GPU memory is sufficient (using CUDNN) 使用end2end的训练方式显存也减少了从原先的11g减少到3g.我觉得主要的原因是在原先的交替训练中rpn训练结束后会有一个rpn生成的过程这时会生成所有训练图片的proposals,而这是个巨大的负担。而使用end2end的方式训练一次训练一张图片rpn阶段产生一张图片的proposal然后送入fast rcnn训练。显然这种方法很省时也很省内存。 对于end2end的测试从网络配置上基本与交替训练的相同。在一些小的细节比如end2end测试时仍然保留了drop层而对于交替训练的方式在训练阶段有测试时去掉了。
下面给出了个人画的end2end的训练网络图。
请访问链接