function - 神经激活函数 - Logistic/Tanh/等之间的差异

标签 function math machine-learning statistics neural-network

我正在编写一些基本的神经网络方法 - 特别是激活函数 - 并且已经达到了我垃圾数学知识的极限。我理解各自的范围(-1/1)(0/1)等,但不同的描述和实现让我感到困惑。

具体来说,sigmoidlogistic双极 sigmoidtanh

sigmoid 是否简单地描述了函数的形状而不考虑​​范围?如果是这样,那么 tanh 是一个“sigmoid 函数”吗?

我在一篇论文中看到了“双极 sigmoid”与“tanh”的比较,但是我已经看到这两个函数使用相同的代码实现(在不同的库中):

(( 2/(1 + Exp(-2 * n))) - 1)。它们是完全相同的东西吗?

同样,我也见过使用相同代码实现的 logisticsigmoid 激活:

( 1/(1 + Exp(-1 * n)))。这些也等价吗?

最后,它在实践中有那么重要吗?我在维基上看到 plot of very similar sigmoid functions - 可以使用其中任何一个吗?有些看起来可能比其他的计算速度要快得多。

最佳答案

逻辑函数:ex/(ex + ec)

逻辑函数的特殊(“标准”)情况:1/(1 + e-x)

双极乙状结肠:从未听说过。

Tanh:(ex-e-x)/(ex + e-x)

Sigmoid 通常指的是形状(和极限),所以是的,tanh 是一个 sigmoid 函数。但在某些情况下,它特指标准物流功能,因此您必须小心。是的,您可以使用任何 sigmoid 函数并且可能效果很好。

(( 2/(1 + Exp(-2 * x))) - 1) 相当于 tanh(x)。

关于function - 神经激活函数 - Logistic/Tanh/等之间的差异,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11847133/

相关文章:

c++ - 如何在 OpenGL 中将对象旋转一定度数?是否有内置命令或我必须使用公式?

linux - 如何在shell中计算百分比

C++ if 循环和函数

ios - 如何从函数内部获取 JSON 数据并将其显示在 swift 的文本字段上?

arrays - SELECT 查询与 PostgreSQL 的 FUNCTION 性能问题

python - 在RandomizedSearchCV中定义loguniformlearning_rate参数

machine-learning - 训练步骤中的 Yolo v1 边界框

javascript - JS函数中调用的变量Id

python - 需要一个合适的数据结构或索引,以便根据 3d 点和重要性因素快速查找用户

python - 多输出回归