我有一个 RNN,我正在训练它来生成文本。当在小数据集上进行训练时,它表现得非常好(尽管它确实记住了训练数据中的文本 block ,这表明过度拟合)。然而,在大型数据集上,它的表现非常差,只输出几个有意义的单词,然后陷入相同的三四个单词的循环中。我知道过度拟合可能是一个问题,但是与在小数据集上训练时相当好的性能相比,在大数据集上训练时肯定不会导致如此糟糕的性能。关于可能导致这些结果的原因有什么想法吗?
最佳答案
如果您还没有添加长短期内存(LSTM),我认为添加它是个好主意。请参阅链接以供引用。 https://medium.com/@camrongodbout/recurrent-neural-networks-for-beginners-7aca4e933b82
关于machine-learning - 为什么我的神经网络在大数据集上训练时表现不佳,尽管在小数据集上运行良好?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46908980/