网站建设首选九零后网络,网站推广优化怎样,网页制作公司兼职,国内网站在国外访问很慢这个问题很简单#xff0c;并不是没有使用softmax#xff0c;而是没有显式使用softmax。
随着深度学习框架的发展#xff0c;为了更好的性能#xff0c;部分框架选择了在使用交叉熵损失函数时默认加上softmax#xff0c;这样无论你的输出层是什么#xff0c;只要用了nn.…这个问题很简单并不是没有使用softmax而是没有显式使用softmax。
随着深度学习框架的发展为了更好的性能部分框架选择了在使用交叉熵损失函数时默认加上softmax这样无论你的输出层是什么只要用了nn.CrossEntropyLoss就默认加上了softmax。不仅是Pytorch国内的飞桨PaddlePaddle2.0等框架也是这样。但在更早的一些版本默认是不隐式添加softmax的所以会有一部分教程/资料要求在撰写对应代码时手动添加softmax。当然自己的框架是否需要手动在输出层添加softmax推荐看对应的API文档。道听途说不一定可取毕竟一个softmax可以做分类俩softmax搞不好就不收敛了