machine-learning - Prelu权重的解释

标签 machine-learning neural-network deep-learning conv-neural-network activation-function

如果某个层中的 prelu 权重接近 1,而在其他层中它们接近 0,那么 prelu 权重的解释是什么?

周围没有太多的 prelu 文献,任何帮助都会非常有帮助!

最佳答案

PRelu 公式为 this :

prelu

正如你所看到的,如果a被学习到在0左右,那么f(x)几乎等于普通的relu,并且来自负激活的梯度不改变网络。简而言之,网络不“想要”在任何方向上调整不活动的神经元。实际上,这也意味着您可以通过在这一层使用 relu 来加快训练速度。而且这种非线性确实很重要。

相反,当a大约为1时,f(x)几乎等于x,即,就像不存在非-线性。这意味着该层可能是多余的,并且网络有足够的自由度在没有它的情况下做出决策边界。

关于machine-learning - Prelu权重的解释,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48615862/

相关文章:

python - 机器学习 - 图像特征设计

python - 为什么这个线性分类器算法是错误的?

r - 在 R 中使用神经网络中的所有输入变量

r - 使用 nnet 进行预测,我这样做对吗?

r - Keras 如何预测 11106 个不同客户的(单独)销售序列,每个客户都有一系列不同的长度(从 1 到 15 个周期)

Python/ML : Which methods to use for Multiclass Classification for Product Categorization?

python - 数据无法完全加载,因为超过了每张工作表的最大列数

python - Keras:test_on_batch 和 predict_on_batch 之间的区别

python - PyTorch 中的卷积与不可训练的预定义内核

python - 训练过程中的过多步骤会扰乱机器学习的训练过程吗?