machine-learning - 神经网络激活函数的选择

标签 machine-learning artificial-intelligence neural-network linear-algebra

我们可以对神经网络的隐藏层和输出层使用不同的激活函数吗? 使用这种方案有什么明显的优势吗?

最佳答案

对于网络的最后一层,激活单元还取决于任务。

  1. 分类:您只希望其中一个输出成为标签之一,但没有可微分的方法来精确实现这一点,因此您需要使用 softmax
  2. 回归:您需要使用 sigmoidtanh 激活函数,因为您希望结果是线性的。通过使用 sigmoid 和 tanh,输出将在 0 和 1 之间缩放。因此很容易优化。

对于中间层,现在大多数人都使用Relu,因为它计算速度更快,并且不会在反向传播中过早消失。

关于machine-learning - 神经网络激活函数的选择,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20368015/

相关文章:

java - 如何对依赖于随机生成的数字的代码进行单元测试?

java - Java 中的梯度下降

python - sklearn preprocessing.scale() 函数,什么时候使用它?

python - Keras准确率和实际准确率正好相反

artificial-intelligence - PACMAN:吃掉所有点的捷径

machine-learning - 为什么在目标检测中使用带有卷积神经网络的滑动窗口?

machine-learning - Mahout中基于用户喜好的推荐系统

python - 比较 2 个 ML 模型的性能准确性之间的差异是否具有统计显着性

ubuntu - 让 THEANO 与 GPU ubuntu 14.04 一起工作的问题

machine-learning - 将 Tibble 转换为 h2o hex 文件时出现错误