我有一个时间序列,为了训练 LSTM 网络,我已将其转变为监督学习问题,并且我继续向我的训练集添加更新的数据点。然而,随着时间序列变得越来越长,训练网络的计算成本变得越来越高。是否有一种技术可以截断旧数据点,而这些数据点可能不会对预测 future 产生重大影响?有文献可以支持这样的观点吗?
最佳答案
您可以简单地拟合数据切片:slicedX = X[:,-50:]
,如果 Y 的长度为:slicedY = Y[:,- 50:]
.
在示例中,我使用了包含最后 50 个时间步长的长度。
正确的时间步数是多少?
答案就在您自己的数据中。只有通过实验才能知道网络需要多少步骤才能以令人满意的方式工作。
关于machine-learning - 截断 LSTM 网络中的旧数据点?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50652293/