首页
程序开发
写作辅助
多媒体
实用工具
博客
当前分类:
cross-entropy
训练 CNN 时大输入的 Tensorflow 熵为 NaN
neural-network - 优化期间交叉熵损失如何转换为标量?
python - MXNet 中的 CrossEntropy 和 NegativeLogLikelihood 有什么区别?
带损失层的caffe softmax用于语义分割损失计算
python - 如何在Python中计算预测集和测试集之间的二元交叉熵?
python - softmax的输出使得二值交叉熵的输出为NAN,我该怎么办?
python - 使用 class_weight 来不平衡数据-.fit_generator()
python - 交叉熵损失与重量手动计算
neural-network - CrossEntropyLoss 在 2d 输出上显示精度较差
keras - 如何在 keras 中计算非 0 或 1 的目标值的交叉熵
tensorflow - sigmoid_cross_entropy 是否会产生整个批处理的平均损失?
python - 带有 label_smoothing 的 TensorFlow sequence_loss
machine-learning - 交叉熵损失对 F 分数的影响
python - Pytorch 闪电指标 : ValueError: preds and target must have same number of dimensions, 或 preds 的一个附加维度
python - Pytorch-运行时错误 : Expected object of scalar type Long but got scalar type Float for argument #2 'target' in call to _thnn_nll_loss_forward
machine-learning - 为什么 RNN 使用交叉熵作为损失函数
machine-learning - xgboost:尽管精度合理,但对数损失巨大
tensorflow - 为什么将reduce_mean应用于sparse_softmax_cross_entropy_with_logits的输出?
python - 在 Pytorch 上使用 sigmoid 输出进行交叉熵损失
python - 在输出和目标标签之间使用 nn.Cross entropy
«
1
2
3
4
5
6
»
热门标签:
编程
数据结构与算法
其他