c# - 为什么在神经网络中使用 Sigmoid 的导数?

标签 c# neural-network

我创建了一个具有典型激活函数(-1 或 1)的简单感知器,它似乎工作正常。 然后我阅读了有关 sigmoid 及其在值之间更平滑过渡的用途,但在使用导数时我总是得到 0.0,这会扰乱计算。 sigmoid 本身很好,对于较小的数字,它是小数点,对于较大的数字,它又是 -1 或 1。 那这个导数有什么用呢?
我的意思是一个例子:

double actual (-1 or 1 when using the "old" function)
double AdjustWeight(int input1,input2, expected, actual)
{
   double error=expected-actual;   //when actual is derivative, is 0 for me, instead of -1 or 1
 ....
}

最佳答案

感知器网络是单层的。因为它们的激活函数是非连续的,你不能对它们使用反向传播算法,所以它们不能是多层的。 相反,Sigmoid 函数是一个可微函数,您可以对它们使用反向传播算法。在 Perception 中你想调整你使用的权重:

W(new) = W(old) + a·(t-x)·y

a是学习率,t是目标值,x是你的输入向量,y是输出。

相反,当你想使用 Sigmoid 函数时,你必须使用基于梯度的算法。在这些算法中,您根据误差导数调整权重。

W(new) = W(old) - a·(dE/dW)

在多层网络中,你不能使用感知算法,因为它需要正确的输出,而你不知道隐藏神经元的正确输出。所以在多层网络中你必须使用基于梯度的算法和反向传播来反向传播误差和dE/dW

在单层神经网络中,您可以使用感知算法或基于梯度的算法。你不能告诉巫婆更好。感知给你更好的分组,基于梯度的给你更多的抗噪能力。

在基于梯度的算法中,您使用激活函数的导数来找到 dE/dW。如果 Z 是神经元的总输入(Z = [sum on i] Wi·Xi):

dE/dWi = Xi·(dE/dZ)

dE/dZ = -f'(Z)·(dE/dY)

在我们的例子中,因为我们使用了 Sigmoid 函数,所以 f'(Z) 对于二元 Sigmoid 是 Y(1-Y),对于双极 Sigmoid 是 0.5(1-Y)(1+Y)。

通常我们使用以下等式计算误差(成本函数):

E = 0.5(T-Y)^2

所以我们的方程将转换为:

dE/dY = Y-T

dE/dZ = -0.5(1+Y)(1-Y)·(Y-T)

dE/dWi = - 0.5Xi·(1+Y)(1-Y)·(Y-T)

W(new) = W(old) + 0.5a·Xi·(1+Y)(1-Y)·(Y-T)

如果您使用以下算法来更新权重,我认为您的问题将得到解决。

关于c# - 为什么在神经网络中使用 Sigmoid 的导数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15803984/

相关文章:

machine-learning - Erlang 中的感知器在训练后不学习

python - 为什么我的神经网络不起作用?

c# - 是否可以覆盖 CaSTLe Windsor 3 中的命名注册?

c# - 使用 LINQ 在数组中查找最小和最大日期?

javascript - 如何从 angularJs 连接 signalR

tensorflow - Keras 视频帧预测的输出维度低于输入维度

c++ - 卷积神经网络不收敛

c# - 让神经网络输出介于 -1.0 和 1.0 之间的任何值

c# - 使用 Excel Interop VB.Net 在 Excel 中设置边距

python - 如何解释 Keras 中 LSTM 层中的权重