machine-learning - 为什么我的神经网络在大数据集上训练时表现不佳,尽管在小数据集上运行良好?

标签 machine-learning neural-network recurrent-neural-network

我有一个 RNN,我正在训练它来生成文本。当在小数据集上进行训练时,它表现得非常好(尽管它确实记住了训练数据中的文本 block ,这表明过度拟合)。然而,在大型数据集上,它的表现非常差,只输出几个有意义的单词,然后陷入相同的三四个单词的循环中。我知道过度拟合可能是一个问题,但是与在小数据集上训练时相当好的性能相比,在大数据集上训练时肯定不会导致如此糟糕的性能。关于可能导致这些结果的原因有什么想法吗?

最佳答案

如果您还没有添加长短期内存(LSTM),我认为添加它是个好主意。请参阅链接以供引用。 https://medium.com/@camrongodbout/recurrent-neural-networks-for-beginners-7aca4e933b82

关于machine-learning - 为什么我的神经网络在大数据集上训练时表现不佳,尽管在小数据集上运行良好?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46908980/

相关文章:

python - Tensorflow:如何在序列长度不同的 RNN 输出中添加偏差

python - MultiLabelBinarizer 可以表示值的计数吗?

matlab - 根据给定数据定义矩阵

neural-network - 假设空间知道神经网络吗?

python - ValueError : Input 0 of layer lstm is incompatible with the layer: expected ndim=3, 发现 ndim=2。收到完整形状 : [None, 18]

nlp - 单词预测: neural net versus n-gram approach

deep-learning - 从 BCEWithLogitLoss(二元交叉熵 + Sigmoid 激活)计算损失后使用 Softmax 激活函数

keras - Dense 期望 2d,但在 LSTM 中得到 3d

r - 变量在模型中没有级别时出现错误

构建多类(相对于二元)分类器的算法