python - 三层神经网络陷入局部极小值

标签 python machine-learning neural-network artificial-intelligence

我已经用Python编写了一个三层神经网络,基于this tutorial ,玩石头、剪刀、布,示例数据使用 -1 表示石头0 表示布1 表示剪刀,以及类似的教程中的数组。我的函数似乎每次运行都陷入相对最小值,我正在寻找一种方法来解决这个问题。程序如下。

#math module
import numpy as np

#sigmoid function converts numbers to percentages(between 0 and 1)
def nonlin(x, deriv = False):
    if (deriv == True): #sigmoid derivative is just
        return x*(1-x)#output * (output - 1)

    return 1/(1+np.exp(-x)) #print the sigmoid function

#input data: using MOCK RPS DATA, -1:ROCK, 0:PAPER, 1:SCISSORS
input_data = np.array([[1, 1, 1],
                    [0, 0, 0],
                    [-1, -1, -1],
                    [-1, 1, -1]])
#also for training
output_data = np.array([[1],
                    [0],
                    [-1],
                    [1]])

#random numbers to not get stuck in local minima for fitness
np.random.seed(1)

#create random weights to be trained in loop
firstLayer_weights = 2*np.random.random((3, 4)) - 1 #size of matrix
secondLayer_weights = 2*np.random.random((4, 1)) - 1

for value in xrange(60000): # loops through training

    #pass input through weights to output: three layers
    layer0 = input_data
    #layer1 takes dot product of the input and weight matrices, then maps them to sigmoid function
    layer1 = nonlin(np.dot(layer0, firstLayer_weights))
    #layer2 takes dot product of layer1 result and weight matrices, then maps the to sigmoid function
    layer2 = nonlin(np.dot(layer1, secondLayer_weights))

    #check computer predicted result against actual data
    layer2_error = output_data - layer2

    #if value is a factor of 10,000, so six times (out of 60,000),
    #print how far off the predicted value was from the data
    if value % 10000 == 0:
        print "Error:" + str(np.mean(np.abs(layer2_error))) #average error

    #find out how much to re-adjust weights based on how far off and how confident the estimate
    layer2_change = layer2_error * nonlin(layer2, deriv = True)

    #find out how layer1 led to error in layer 2, to attack root of problem
    layer1_error = layer2_change.dot(secondLayer_weights.T)
    #^^sends error on layer2 backwards across weights(dividing) to find original error: BACKPROPAGATION

    #same thing as layer2 change, change based on accuracy and confidence
    layer1_change = layer1_error * nonlin(layer1, deriv=True)

    #modify weights based on multiplication of error between two layers
    secondLayer_weights = secondLayer_weights + layer1.T.dot(layer2_change)
    firstLayer_weights = firstLayer_weights + layer0.T.dot(layer1_change)

可以看到,这一段是涉及到的数据:

input_data = np.array([[1, 1, 1],
                       [0, 0, 0],
                       [-1, -1, -1],
                       [-1, 1, -1]])
#also for training
output_data = np.array([[1],
                        [0],
                        [-1],
                        [1]])

权重在这里:

firstLayer_weights = 2*np.random.random((3, 4)) - 1 #size of matrix
secondLayer_weights = 2*np.random.random((4, 1)) - 1

似乎在前一千代之后,权重以最低的编译效率进行校正,这让我相信它们已经达到了相对最小值,如下所示:

Relative minima point for weights

纠正此问题的快速有效的替代方案是什么?

最佳答案

网络的一个问题是输出(layer2 的元素值)只能在 0 到 1 之间变化,因为您使用的是 sigmoid 非线性。由于四个目标值之一是 -1,而最接近的可能预测是 0,因此总会有至少 25% 的误差。以下是一些建议:

  1. 对输出使用 one-hot 编码:即具有三个输出节点 - 一个用于 ROCKPAPER剪刀 code>——并训练网络计算这些输出的概率分布(通常使用 softmax 和交叉熵损失)。

  2. 使网络的输出层成为线性层(应用权重和偏差,但不应用非线性)。添加另一个层,或从当前输出层中删除非线性。

您可以尝试的其他方法,但不太可能可靠地工作,因为实际上您正在处理分类数据而不是连续输出:

  • 缩放数据,使训练数据中的所有输出都在 0 到 1 之间。

  • 使用产生 -1 到 1 之间值的非线性(例如 tanh)。

  • 关于python - 三层神经网络陷入局部极小值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34580680/

    相关文章:

    python - 为什么在神经网络中将误差乘以 sigmoid 的导数?

    python - Pandas 如何删除列中的单元格并将列向上移动?

    python - 如何修复 Mac 上的 'CERTIFICATE_VERIFY_FAILED' 错误?

    python - Keras 中的 dropout 行为,rate=1(丢弃所有输入单元)不符合预期

    machine-learning - 合并具有不同输入形状的不同模型的输出

    neural-network - P字母在神经网络层方案中意味着什么?

    Python:如何将列表值正确地附加到列表中?

    python - Cython 中动态大小的对象数组

    python - Keras 中一维 CNN 的激活函数错误

    python - Tensorflow:分类概率分布的 KL 散度