deep-learning - 深度神经网络与 qlearning 相结合

标签 deep-learning reinforcement-learning accord.net q-learning sarsa

我使用 Kinect 相机的关节位置作为状态空间,但我认为它太大(25 个关节 x 每秒 30 个),无法直接输入 SARSA 或 Qlearning。

现在我正在使用 Kinect Gesture Builder 程序,该程序使用监督学习将用户移动与特定手势关联起来。但这需要监督培训,我想放弃这种培训。我认为该算法可能会拾取关节之间的某些关联,就像我自己对数据进行分类时一样(例如举手、向左迈、向右迈)。

我认为将这些数据输入深度神经网络,然后将其传递给强化学习算法可能会给我带来更好的结果。

最近有一篇论文讨论了这个问题。 https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf

我知道 Accord.net 同时拥有深度神经网络和强化学习,但有人将它们组合在一起吗?有什么见解吗?

最佳答案

如果我从您的问题+评论中理解正确,您想要的是拥有一个使用视觉输入(来自相机的原始像素)执行离散操作的代理。这看起来与 DeepMind 人员最近所做的一模一样,扩展了你提到的论文。看看this 。这是雅达利游戏的更新(更好)版本。他们还提供了官方实现,您可以下载 here 。 甚至还有an implementation in Neon效果很好。

最后,如果您想使用连续操作,您可能会对这个 very recent paper 感兴趣。 .

回顾一下:是的,有人将 DNN + RL 结合起来,它确实有效,如果您想使用原始相机数据来训练 RL 代理,这绝对是一种方法:)

关于deep-learning - 深度神经网络与 qlearning 相结合,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34246008/

相关文章:

image-processing - 如何使用 VGG16 或 InceptionV3 的高分辨率图像

Tensorflow TensorBoard 不显示 acc、loss、acc_val 和 loss_val 仅仅显示 epoch_accuracy 和 epoch_loss

machine-learning - 时间差异更新规则

c# - 我可以使用 Accord.Net 进行并发 cobyla 优化吗?

tensorflow - Keras问题下的反卷积

python - 错误 : When subclassing the `Model` class, 你应该实现一个 `call` 方法。关于 tensorflow 自定义模型

algorithm - Q 学习的收敛标准

python - 强化学习 - 当游戏的输入只有像素时,我们如何决定对代理的奖励?

c# - Accord.Video.FFMPEG 创建质量非常低的视频

c# - 将 Accord 音频库与 Windows Phone 8.1 应用程序(非 Silverlight)一起使用