我面临以下问题。 我有大量文档想要使用双向 LSTM 进行编码。每个文档都有不同数量的单词,单词可以被认为是一个时间步长。
在配置双向 LSTM 时,我们需要提供时间序列长度。
当我训练模型时,每个批处理的该值都会不同。
我应该为 timeseries_size
选择一个数字,这是我允许的最大文档大小吗?任何大于此的文档都不会被编码?
示例配置:
Bidirectional(LSTM(128, return_sequences=True), input_shape=(timeseries_size, encoding_size))
最佳答案
这是一个众所周知的问题,涉及普通 RNN 和双向 RNN。 This discussion on GitHub可能对你有帮助。本质上,以下是最常见的选项:
一个简单的解决方案是设置
timeseries_size
作为训练集的最大长度,并用零填充较短的序列。 Example Keras code 。如果训练集恰好同时具有非常长和非常短的输入,那么一个明显的缺点是内存浪费。将输入样本分成不同长度的桶,例如一个桶
length <= 16
,另一个桶length <= 32
等等。基本上,这意味着为不同的句子集训练几个单独的 LSTM。这种方法(称为分桶)需要更多的努力,但目前被认为是最有效的,并且实际用于最先进的翻译引擎 Tensorflow Neural Machine Translation .
关于machine-learning - 如何在 Keras 中配置双向 LSTM 的输入形状,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49834096/