我正在对我的数据进行 FCN32 语义分割。我运行算法来微调我的数据(只有一个 channel 的灰度图像),直到 80,000 次迭代;然而,损失和精度是波动的,输出图像完全是黑色的。甚至,在 80,000 次迭代之后损失如此之高。我认为分类器不能很好地训练我的数据。所以,我要从头开始训练。
另一方面,我的数据有不平衡的类(class)成员。背景像素比其他四类多。一些研究人员建议使用加权损失。有谁有想法吗?我做对了吗?如何将此加权损失添加到 train_val.prototxt?
如果您知道任何与加权损失训练相关的资源/示例,我将不胜感激,请在此处与我分享。
再次感谢
最佳答案
您可以使用 "InfogainLoss"
解决类不平衡问题.这种损失可以看作是对 "SoftmaxWithLoss"
的扩展。这使您能够为每个标签“支付”不同的损失值。
如果您想使用 "InfogainLoss"
对于逐像素预测,您可能需要使用 BVLC/caffe PR#3855 .
关于neural-network - 是否有使用加权损失进行像素分割/分类任务的示例?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41670022/