machine-learning - 如何解释SoftMax回归中的 "soft"和 "max"?

标签 machine-learning softmax

我知道softmax回归的形式,但我很好奇它为什么有这样的名字?或者只是出于某些历史原因?

最佳答案

两个数字的最大值 max(x,y) 可能具有尖角/陡峭边缘,这有时是不需要的属性(例如,如果您想计算梯度)。

要柔化 max(x,y) 的边缘,可以使用一种具有较软边缘的变体:softmax 函数。它的核心仍然是一个 ma​​x 函数(嗯,准确地说,它是它的近似值),但经过了平滑处理。

如果还是不清楚,here's一本好书。

关于machine-learning - 如何解释SoftMax回归中的 "soft"和 "max"?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30637909/

相关文章:

machine-learning - 如何划分数据集以降低 kNN 的时间复杂度?

lua - 在 Torch 中将 Softmax 添加到 ResNet 模型

python - Tensorflow:具有交叉熵损失的加权稀疏 softmax

python - keras 中的 categorical_crossentropy 是如何实现的?

machine-learning - cudnn:当 CUDNN_SOFTMAX_ACCURATE 工作正常时,CUDNN_SOFTMAX_FAST 输出 NaN

r - 如何更改 R 中的 t-sne 距离?

algorithm - 基于相似词序列的聚类字符串

python - 识别文本中的多个类别和相关情绪

unit-testing - 单元测试机器学习代码

tensorflow - Inception 模型有两个 softmax 输出吗?