以下 PyTorch 函数 ( doc ) 的目的是什么:
torch.addmm(beta=1, mat, alpha=1, mat1, mat2, out=None)
更具体地说,是否有任何理由更喜欢这个功能而不是仅仅使用
beta * mat + alpha * (mat1 @ mat2)
最佳答案
addmm
函数是方程 beta*mat + alpha*(mat1 @ mat2)
的优化版本.我运行了一些测试并为它们的执行计时。
beta=1, alpha=1
,那么无论矩阵大小如何,这两个语句(addmm
和手动)的执行大致相同(addmm
只是快一点)。 beta
和 alpha
不是 1,则 addmm
对于较小的矩阵(总元素数为 105),比手动执行快两倍。但是,如果矩阵很大(按 106 的顺序),则加速似乎可以忽略不计 ( 39ms
v/s 41ms
) 关于PyTorch:addmm 函数的目的,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49609226/