当前分类:cross-entropy

训练 CNN 时大输入的 Tensorflow 熵为 NaN

neural-network - 优化期间交叉熵损失如何转换为标量?

python - MXNet 中的 CrossEntropy 和 NegativeLogLikelihood 有什么区别?

带损失层的caffe softmax用于语义分割损失计算

python - 如何在Python中计算预测集和测试集之间的二元交叉熵?

python - softmax的输出使得二值交叉熵的输出为NAN,我该怎么办?

python - 使用 class_weight 来不平衡数据-.fit_generator()

python - 交叉熵损失与重量手动计算

neural-network - CrossEntropyLoss 在 2d 输出上显示精度较差

keras - 如何在 keras 中计算非 0 或 1 的目标值的交叉熵

tensorflow - sigmoid_cross_entropy 是否会产生整个批处理的平均损失?

python - 带有 label_smoothing 的 TensorFlow sequence_loss

machine-learning - 交叉熵损失对 F 分数的影响

python - Pytorch 闪电指标 : ValueError: preds and target must have same number of dimensions, 或 preds 的一个附加维度

python - Pytorch-运行时错误 : Expected object of scalar type Long but got scalar type Float for argument #2 'target' in call to _thnn_nll_loss_forward

machine-learning - 为什么 RNN 使用交叉熵作为损失函数

machine-learning - xgboost:尽管精度合理,但对数损失巨大

tensorflow - 为什么将reduce_mean应用于sparse_softmax_cross_entropy_with_logits的输出?

python - 在 Pytorch 上使用 sigmoid 输出进行交叉熵损失

python - 在输出和目标标签之间使用 nn.Cross entropy

热门标签: