machine-learning - Keras嵌入层: keep zero-padded values as zeros

标签 machine-learning keras text-classification word-embedding zero-padding

我一直在考虑单词序列的 0 填充以及如何将 0 填充转换为嵌入层。乍一看,人们会认为您也希望保持嵌入 = 0.0。但是,keras 中的嵌入层会为任何输入标记生成随机值,并且无法强制其生成 0.0。请注意,mask_zero 做了一些不同的事情,我已经检查过了。

有人可能会问,为什么要担心这个,即使嵌入不是 0.0,只要它们相同,代码似乎也可以工作。所以我想出了一个例子,尽管有些做作,其中将 0 填充 token 的嵌入设置为 0.0 会产生影响。

我使用了 20 个新闻组数据集 from sklearn.datasets import fetch_20newsgroups。我做了一些最少的预处理:删除标点符号、停用词和数字。我使用 from keras.preprocessing.sequence import pad_sequences 进行 0 填充。我将 ~18K 帖子分为训练集和验证集,训练/验证的比例 = 4/1。 我创建了一个简单的 1 密集隐藏层网络,输入是扁平化的嵌入序列:

    EMBEDDING_DIM = 300
    MAX_SEQUENCE_LENGTH = 1100
    layer_size = 25
    dropout = 0.3
    sequence_input = Input(shape=(MAX_SEQUENCE_LENGTH,), dtype='int32', name='dnn_input')
    embedding_layer = Embedding(len(word_index) + 1, EMBEDDING_DIM, input_length=MAX_SEQUENCE_LENGTH, name = 'embedding_dnn')
    embedded_sequences = embedding_layer(sequence_input)
    x = Flatten(name='flatten_dnn')(embedded_sequences)
    x = Dense(layer_size, activation='relu', name ='hidden_dense_dnn')(x)
    x = Dropout(dropout, name='dropout')(x)
    preds = Dense(num_labels, activation='softmax', name = 'output_dnn')(x)

    model = Model(sequence_input, preds)
    model.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])

该模型具有大约 14M 个可训练参数(正如我已经提到的,这个示例有点做作)。 当我训练它时

    earlystop = EarlyStopping(monitor='val_loss', patience=5)
    history = model.fit(x_train, y_train, validation_data=(x_test, y_test), epochs=30, batch_size=BATCH_SIZE, callbacks=[earlystop])

看起来算法在 4 个时期内都在努力寻找摆脱“随机性”的方法:

Train on 15048 samples, validate on 3798 samples
Epoch 1/30
15048/15048 [==============================] - 58s 4ms/step - loss: 3.1118 - acc: 0.0519 - val_loss: 2.9894 - val_acc: 0.0534
Epoch 2/30
15048/15048 [==============================] - 56s 4ms/step - loss: 2.9820 - acc: 0.0556 - val_loss: 2.9827 - val_acc: 0.0527
Epoch 3/30
15048/15048 [==============================] - 55s 4ms/step - loss: 2.9712 - acc: 0.0626 - val_loss: 2.9718 - val_acc: 0.0579
Epoch 4/30
15048/15048 [==============================] - 55s 4ms/step - loss: 2.9259 - acc: 0.0756 - val_loss: 2.8363 - val_acc: 0.0874
Epoch 5/30
15048/15048 [==============================] - 56s 4ms/step - loss: 2.7092 - acc: 0.1390 - val_loss: 2.3251 - val_acc: 0.2796
...
Epoch 13/30
15048/15048 [==============================] - 56s 4ms/step - loss: 0.0698 - acc: 0.9807 - val_loss: 0.5010 - val_acc: 0.8736

最终的准确度约为 0.87

print ('Best validation accuracy is ', max(history.history['val_acc']))
Best validation accuracy is  0.874934175379845

但是,当我将填充的 0 的嵌入明确设置为 0.0

def myMask(x):
    mask= K.greater(x,0) #will return boolean values
    mask= K.cast(mask, dtype=K.floatx()) 
    return mask
layer_size = 25
dropout = 0.3
sequence_input = Input(shape=(MAX_SEQUENCE_LENGTH,), dtype='int32', name='dnn_input')
embedding_layer = Embedding(len(word_index) + 1, EMBEDDING_DIM, input_length=MAX_SEQUENCE_LENGTH, name = 'embedding_dnn')
embedded_sequences = embedding_layer(sequence_input)
y = Lambda(myMask, output_shape=(MAX_SEQUENCE_LENGTH,))(sequence_input)
y = Reshape(target_shape=(MAX_SEQUENCE_LENGTH,1))(y)
merge_layer = Multiply(name = 'masked_embedding_dnn')([embedded_sequences,y])
x = Flatten(name='flatten_dnn')(merge_layer)
x = Dense(layer_size, activation='relu', name ='hidden_dense_dnn')(x)
x = Dropout(dropout, name='dropout')(x)
preds = Dense(num_labels, activation='softmax', name = 'output_dnn')(x)

model = Model(sequence_input, preds)
model.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])

具有相同数量参数的模型立即摆脱“随机性”:

Train on 15048 samples, validate on 3798 samples
Epoch 1/30
15048/15048 [==============================] - 64s 4ms/step - loss: 2.4356 - acc: 0.3060 - val_loss: 1.2424 - val_acc: 0.7754
Epoch 2/30
15048/15048 [==============================] - 61s 4ms/step - loss: 0.6973 - acc: 0.8267 - val_loss: 0.5240 - val_acc: 0.8797
...
Epoch 10/30
15048/15048 [==============================] - 61s 4ms/step - loss: 0.0496 - acc: 0.9881 - val_loss: 0.4176 - val_acc: 0.8944

最终的准确度更高,约为 0.9。

这又是一个有些人为的示例,但它仍然表明将这些“填充”嵌入保持在 0.0 可能是有益的。

我在这里遗漏了什么吗?如果我没有遗漏任何东西,那么 Keras 不提供开箱即用的功能的原因是什么?

UPDATE

@DanielMöller 我尝试了你的建议:

layer_size = 25
dropout = 0.3
init = RandomUniform(minval=0.0001, maxval=0.05, seed=None)
constr = NonNeg()



sequence_input = Input(shape=(MAX_SEQUENCE_LENGTH,), dtype='int32', name='dnn_input')
embedding_layer = Embedding(len(word_index) + 1, 
                            EMBEDDING_DIM, 
                            input_length=MAX_SEQUENCE_LENGTH, 
                            name = 'embedding_dnn', 
                            embeddings_initializer=init,
                            embeddings_constraint=constr)

embedded_sequences = embedding_layer(sequence_input)
y = Lambda(myMask, output_shape=(MAX_SEQUENCE_LENGTH,))(sequence_input)
y = Reshape(target_shape=(MAX_SEQUENCE_LENGTH,1))(y)
merge_layer = Multiply(name = 'masked_embedding_dnn')([embedded_sequences,y])
x = Flatten(name='flatten_dnn')(merge_layer)
x = Dense(layer_size, activation='relu', name ='hidden_dense_dnn')(x)
x = Dropout(dropout, name='dropout')(x)
preds = Dense(num_labels, activation='softmax', name = 'output_dnn')(x)

model = Model(sequence_input, preds)
model.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])

不幸的是,网络陷入了“随机性”:

Train on 15197 samples, validate on 3649 samples
Epoch 1/30
15197/15197 [==============================] - 60s 4ms/step - loss: 3.1354 - acc: 0.0505 - val_loss: 2.9943 - val_acc: 0.0496
....
Epoch 24/30
15197/15197 [==============================] - 60s 4ms/step - loss: 2.9905 - acc: 0.0538 - val_loss: 2.9907 - val_acc: 0.0496

我也尝试过没有 NonNeg() 约束,结果相同。

最佳答案

好吧,您将消除与填充步骤相关的权重梯度的计算。

如果你有太多的填充步骤,那么关于填充值的嵌入权重将参与大量计算,并且将与其他权重显着竞争。但训练这些权重是一种计算浪费,换句话说肯定会产生干扰。

例如,还要考虑一些填充权重的值可能介于有意义的单词的值之间。因此,增加权重可能会使其与另一个单词相似,而实际上并非如此。并且也在减少......

这些额外的计算、对损失和梯度计算的额外贡献等将产生更多的计算需求和更多的障碍。这就像数据中间有很多垃圾。

还请注意,这些零将直接进入密集层,这也将消除许多密集权重的梯度。如果较长的序列与较短的序列相比较少,则这可能会过度拟合。

<小时/>

出于好奇,如果你这样做会发生什么?

from keras.initializers import RandomUniform
from keras.constraints import NonNeg

init = RandomUniform(minval=0.0001, maxval=0.05, seed=None)
constr = NonNeg()


......
embedding_layer = Embedding(len(word_index) + 1, 
                            EMBEDDING_DIM, 
                            input_length=MAX_SEQUENCE_LENGTH, 
                            name = 'embedding_dnn', 
                            embeddings_initializer=init,
                            embeddings_constraint=constr)
..........

关于machine-learning - Keras嵌入层: keep zero-padded values as zeros,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56798308/

相关文章:

python - python 中用于强化学习的模拟和可视化库?

python - 如何为 sklearn 的线性回归预测添加范围

python - 使用 Keras 使用多个指标进行预测

Keras模型ValueError : Error when checking model target:

Python:将文本分类

machine-learning - 当我们使用10倍交叉验证时,我们是否需要进行重大测试?

image - Keras Graph 断开连接无法获取张量 KerasTensor 的值

python-3.x - python tensorflow文本分类中的稀疏矩阵

machine-learning - BERT HuggingFace 给出 NaN 损失

python - 调用 "dense_features_5"层时遇到异常