machine-learning - 截断 LSTM 网络中的旧数据点?

标签 machine-learning keras lstm

我有一个时间序列,为了训练 LSTM 网络,我已将其转变为监督学习问题,并且我继续向我的训练集添加更新的数据点。然而,随着时间序列变得越来越长,训练网络的计算成本变得越来越高。是否有一种技术可以截断旧数据点,而这些数据点可能不会对预测 future 产生重大影响?有文献可以支持这样的观点吗?

最佳答案

您可以简单地拟合数据切片:slicedX = X[:,-50:],如果 Y 的长度为:slicedY = Y[:,- 50:].

在示例中,我使用了包含最后 50 个时间步长的长度。

正确的时间步数是多少?

答案就在您自己的数据中。只有通过实验才能知道网络需要多少步骤才能以令人满意的方式工作。

关于machine-learning - 截断 LSTM 网络中的旧数据点?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50652293/

相关文章:

machine-learning - 如何使用遗传算法表示染色体?

deep-learning - 在 Keras 中使用带小批量的有状态 LSTM 和可变时间步长的输入?

python - TF2.0 Data API 从每个类标签中获取 n_i 个样本

python - Pytorch 梯度存在但权重不更新

machine-learning - scikit、分类列、决策树

machine-learning - Moses(统计机器翻译)mose.ini文件格式的文档?

machine-learning - 在不同间隔的时间序列上使用 LSTM

python-3.x - TypeError : can't pickle _thread. 锁定 Seq2Seq 中的对象

machine-learning - 神经网络中的神经元在哪里共享其预测结果(学习功能)?

python - Keras 实现中的 LSTM 架构?