python - 在pytorch中沿行散布张量

标签 python tensorflow pytorch tensor scatter

我想以行的粒度分散张量。

例如考虑,

Input = torch.tensor([[2, 3], [3, 4], [4, 5]])

我要分散

S = torch.tensor([[1,2],[1,2]])

到索引

I = torch.tensor([0,2])

我期望输出为 torch.tensor([[1, 2], [3, 4], [1, 2]])

这里S[0]被分散到Input[I[0]],类似地S[1]被分散到输入[I[1]]

我怎样才能实现这个目标?我正在寻找一种更有效的方法,而不是循环遍历 S 中的行。

最佳答案

执行输入[I] = S

示例:

input = torch.tensor([[2, 3], [3, 4], [4, 5]])
S = torch.tensor([[1,2],[1,2]])
I = torch.tensor([0,2])
input[I] = S
input
tensor([[1, 2],
        [3, 4],
        [1, 2]])

关于python - 在pytorch中沿行散布张量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62350436/

相关文章:

python - Keras 检查输入 : expected input_4 to have shape (299, 299, 3) 时出错,但得到形状为 (64, 64, 3) 的数组

python - 如何在 Pytorch 中的模块之间共享权重?

python - key 错误 : 'predictions' When use SimpleSeq2SeqPredictor to predict string

python - 如何判断 plone 中的 AT 对象中的字段值是否已更改?

python - 名称 'DecodeJpeg/contents:0' 指的是一个不存在的张量

tensorflow - 如何在keras中堆叠多个lstm?

python - 如何用另一个张量切片 PyTorch 张量?

python - 如何删除或更改默认的帮助命令?

javascript - Fusion Charts 未渲染

python - 在 Django 中,模型类中定义的选择是否可以在模型类之外的其他地方访问?