Google 针对 Atari 游戏的 Deep Q 网络现已推出。
https://github.com/rahular/deepmind-dqn
当我使用 GPU 设置运行它时
./run_gpu <game name>
我遇到了这个错误
../torch/bin/luajit: ./convnet.lua:22: attempt to call local 'convLayer' (a nil value)
stack traceback:
./convnet.lua:22: in function 'network'
./NeuralQLearner.lua:89: in function '__init'
...einforcement_Learning/torch/share/lua/5.1/torch/init.lua:51: in function <...einforcement_Learning/torch/share/lua/5.1/torch/init.lua:47>
[C]: at 0x7f419423d380
./initenv.lua:133: in function 'setup'
train_agent.lua:52: in main chunk
[C]: at 0x00406230
导致此问题的代码位于此文件 https://github.com/rahular/deepmind-dqn/blob/master/dqn/convnet.lua 中
它就在这个函数中
function create_network(args)
local net = nn.Sequential()
net:add(nn.Reshape(unpack(args.input_dims)))
--- first convolutional layer
local convLayer = nn.SpatialConvolution
if args.gpu >= 0 then
net:add(nn.Transpose({1,2},{2,3},{3,4}))
convLayer = nn.SpatialConvolutionCUDA
end
net:add(convLayer(args.hist_len*args.ncols, args.n_units[1],
args.filter_size[1], args.filter_size[1],
args.filter_stride[1], args.filter_stride[1],1))
net:add(args.nl())
net:add(convLayer( 是第 22 行。
我使用了 GPU 设置,所以看起来
convLayer = nn.SpatialConvolutionCUDA
导致 convLayer 为零。
有人知道为什么 nn.SpatialConvolutionCUDA 返回 nil 吗?
最佳答案
该代码最初是否带有 GPU 支持,还是您自己添加的?
您应该替换已弃用的层,即替换:
net:add(nn.Transpose({1,2},{2,3},{3,4}))
convLayer = nn.SpatialConvolutionCUDA
与
convLayer = nn.SpatialConvolution
检查层的文档。
编辑:使用this branch ,我修复了它以支持 GPU。
关于lua - 运行Google Deep Q Network Code时遇到的Bug,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29564360/