python - 带有掩蔽和直觉的 LSTM 回归问题 (keras)

标签 python machine-learning keras regression lstm

我正在使用这种架构(用于不同轨迹长度的掩蔽层,用 0 填充到最大长度轨迹,然后是 LSTM,之后有一个密集层,输出 2 个值)来构建一个回归器,该回归器根据轨迹。

samples, timesteps, features = x_train.shape[0], x_train.shape[1], x_train.shape[2]

model = Sequential()
model.add(tf.keras.layers.Masking(mask_value=0., input_shape=(timesteps, features), name="mask"))
model.add(LSTM(30, return_sequences=True, name="lstm1"))
model.add(LSTM(30, return_sequences=False, name="lstm2"))
model.add(Dense(20, activation='relu', name="dense1"))
model.add(Dense(20, activation='relu', name="dense2"))
model.add(Dense(2, activation='linear', name="output"))
model.compile(optimizer="adam", loss="mse")

训练:

model.fit(x_train, y_train, epochs = 10, batch_size = 32)

我的输入数据的形状:

x_train (269, 527, 11) (269 trajectories of 527 timesteps of 11 features)
y_train (269, 2) (these 269 trajectories have 2 target values)
x_test (30, 527, 11) (--- same ---)
y_test (30, 2) (--- same ---)

我已经对数据进行了预处理,因此我的所有序列都具有固定长度,并且较小的序列在缺失的时间步长处用 0 填充。 因此,我使用掩蔽层来跳过这些时间步,因为它们不提供任何信息。

正如预期的那样,输出的形状为:

(30, 2)

但仔细研究它似乎会回归相同的值。

[[37.48257     0.7025466 ]
 [37.48258     0.70254654]
 [37.48257     0.70254654]
 [37.48257     0.7025466 ]
 [37.48258     0.70254654]
 [37.48258     0.70254654]
 [37.48258     0.70254654]
 [37.48258     0.7025465 ]
 [42.243515    0.6581909 ]
 [37.48258     0.70254654]
 [37.48257     0.70254654]
 [37.48258     0.70254654]
 [37.48261     0.7025462 ]
 [37.48257     0.7025466 ]
 [37.482582    0.70254654]
 [37.482567    0.70254654]
 [37.48257     0.7025466 ]
 [37.48258     0.70254654]
 [37.48258     0.70254654]
 [37.48257     0.7025466 ]
 [37.48258     0.70254654]
 [37.48258     0.70254654]
 [37.48258     0.70254654]
 [37.482567    0.7025465 ]
 [37.48261     0.7025462 ]
 [37.482574    0.7025466 ]
 [37.48261     0.7025462 ]
 [37.48261     0.70254624]
 [37.48258     0.70254654]
 [37.48261     0.7025462 ]]

而我的目标值(y_test)是这样的:

[[70.   0.6]
 [40.   0.6]
 [ 6.   0.6]
 [94.   0.7]
 [50.   0.6]
 [60.   0.6]
 [16.   0.6]
 [76.   0.9]
 [92.   0.6]
 [32.   0.8]
 [22.   0.7]
 [70.   0.7]
 [36.   1. ]
 [64.   0.7]
 [ 0.   0.9]
 [82.   0.9]
 [38.   0.6]
 [54.   0.8]
 [28.   0.8]
 [62.   0.7]
 [12.   0.6]
 [72.   0.8]
 [66.   0.8]
 [ 2.   1. ]
 [98.   1. ]
 [20.   0.8]
 [82.   1. ]
 [38.   1. ]
 [68.   0.6]
 [62.   1. ]]

这就像将整个数据集视为 1 个数据点。 有经验的人能发现这里有什么明显的错误吗?

感谢任何形式的帮助!

最佳答案

当权重是随机的时,它们会困惑地影响具体的输入计算,并且我们总是得到几乎相同的输出。 你训练了模型吗?看起来不是,在训练之前考虑简单的 MNIST 求解器输出:

[-2.39 -2.54 -2.23 -2.24 -2.29 -2.37 -2.39 -2.10 -2.34 -2.20]
[-2.28 -2.43 -2.25 -2.33 -2.28 -2.42 -2.26 -2.19 -2.37 -2.25]
[-2.43 -2.44 -2.25 -2.33 -2.33 -2.37 -2.30 -2.10 -2.37 -2.17]
[-2.33 -2.43 -2.28 -2.27 -2.34 -2.34 -2.28 -2.16 -2.37 -2.26]

及之后:

 [-31.72 -31.65 -25.43 -20.04 -29.68  -0.00 -22.74 -25.88 -16.28 -13.30]  (5)
 [-12.44 -29.92 -21.19 -25.86 -22.53 -12.01  -0.00 -22.61 -18.88 -23.54]  (6)
 [-23.86 -25.77 -11.88  -9.18 -19.51 -20.85 -28.71  -0.00 -22.11 -14.57]  (7)
 [-33.67 -23.45 -17.82  -0.00 -28.89 -14.20 -32.54 -14.45 -11.13 -15.40]  (3)

UPD:所以提供了培训,但没有实现其目标。嗯,很多事情都可以成为原因。除了技术问题之外,该任务对于神经网络来说可能过于复杂,例如,如果无法逐步改进来学习目标函数。

检查数据路径,尝试简化任务,找到一些解决问题的示例解决方案,检查并返工。

关于python - 带有掩蔽和直觉的 LSTM 回归问题 (keras),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/71479172/

相关文章:

python - Unicode 显示问题 (UnicodeEncodeError) 通过 "heroku run python"

python - dataframe和csv文件的日期格式可以相同吗?

Python CGI 无法在 Mac OSX 10.6.7 上执行

language-agnostic - 条件随机场——它们是如何工作的?

python - sklearn、python 中的网格搜索技术

Keras LSTM 状态与带滑动窗口的前馈网络

python - 如何在django中使用加密密码登录

python - 颜色和特征分类opencv

python - 安装 Visual Studio 19 时找不到 Visual Studio 17

python - Keras 的 fit_generator 中是否使用了所有训练样本?