python - torch 。当最终张量中有多个值时,可以使用 autograd 吗?

标签 python pytorch autograd

当最终张量中有多个值时,可以使用 autograd 吗?

我尝试了以下方法。

x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2

print(y)

y.backward()

抛出错误

RuntimeError: grad can be implicitly created only for scalar outputs

然而以下是有效的。

x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2
y = torch.sum(y)
print(y)

y.backward()
print(x.grad)

输出为

tensor(41., grad_fn=<SumBackward0>)
tensor([ 8., 10.])

我是不是遗漏了什么,或者我是否可以假设 autograd 仅在最终张量中只有一个值时才有效?

最佳答案

参见 https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html#gradients

y.backward() 等同于y.backward(torch.tensor(1.0))

通常,输出是标量,因此标量作为默认选择传递给 backward。但是,由于您的输出是二维的,因此您应该调用 y.backward(torch.tensor([1.0,1.0]))

这将给出预期的结果,x.gradtensor([ 8., 10.])

关于python - torch 。当最终张量中有多个值时,可以使用 autograd 吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53273662/

相关文章:

python - 使用pytorch的变量的目标是什么?

python - 使用 PyTorch 根据我从张量计算的数字来调整张量矩阵值?

Python Debug 在 SSH FS(远程主机)上不起作用

python - Python 中对变量进行装箱的有效方法

python - 如何从 Django 数据库中获取一定数量的元素

python - 如何在 Unet 架构 PyTorch 中处理奇数分辨率

python - 如何解决方法不可迭代的问题?

python - 更新 PyTorch 中的特定向量元素

python - tf.gradients() 不适用于 'tf.assign()' ,但适用于 '='

python - 如何用 Pandas 列的最大值替换无限值?