我使用 Kinect 相机的关节位置作为状态空间,但我认为它太大(25 个关节 x 每秒 30 个),无法直接输入 SARSA 或 Qlearning。
现在我正在使用 Kinect Gesture Builder 程序,该程序使用监督学习将用户移动与特定手势关联起来。但这需要监督培训,我想放弃这种培训。我认为该算法可能会拾取关节之间的某些关联,就像我自己对数据进行分类时一样(例如举手、向左迈、向右迈)。
我认为将这些数据输入深度神经网络,然后将其传递给强化学习算法可能会给我带来更好的结果。
最近有一篇论文讨论了这个问题。 https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
我知道 Accord.net 同时拥有深度神经网络和强化学习,但有人将它们组合在一起吗?有什么见解吗?
最佳答案
如果我从您的问题+评论中理解正确,您想要的是拥有一个使用视觉输入(来自相机的原始像素)执行离散操作的代理。这看起来与 DeepMind 人员最近所做的一模一样,扩展了你提到的论文。看看this 。这是雅达利游戏的更新(更好)版本。他们还提供了官方实现,您可以下载 here 。 甚至还有an implementation in Neon效果很好。
最后,如果您想使用连续操作,您可能会对这个 very recent paper 感兴趣。 .
回顾一下:是的,有人将 DNN + RL 结合起来,它确实有效,如果您想使用原始相机数据来训练 RL 代理,这绝对是一种方法:)
关于deep-learning - 深度神经网络与 qlearning 相结合,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34246008/