我在 python 中有以下代码,至少对我来说会产生奇怪的结果:
import numpy as np
import timeit
a = np.random.rand(3,2)
print timeit.timeit('a[2,1] + 1', 'from __main__ import a', number=1000000)
print timeit.timeit('a.item((2,1)) + 1', 'from __main__ import a', number=1000000)
结果如下:
0.533630132675
0.103801012039
如果我只尝试访问 numpy 元素似乎没问题,但是当增加这个元素时,时间会变得很奇怪......为什么时间上会有这么大的差异?
最佳答案
在这种情况下,它们不会返回完全相同的东西。 a[2,1]
返回 numpy.float64
, 而 a.item((2,1))
返回 native python float 。
native 与 numpy
标量(float
、int
等)
A numpy.float64
标量与 native python 不完全相同 float
(但是,它们的行为相同)。使用 native python float 对单个元素的简单操作会更快,因为间接寻址更少。看看 docstring for ndarray.item
了解更多详情。
作为速度差异的示例,请考虑以下内容:
In [1]: x = 1.2
In [2]: y = np.float64(1.2)
In [3]: %timeit x + 1
10000000 loops, best of 3: 58.9 ns per loop
In [4]: %timeit y + 1
1000000 loops, best of 3: 241 ns per loop
最初,我错误地指出第二个因素是 a.item(...)
比 a[...]
稍快.这实际上不是真的。 a.item
花费的时间将 numpy 标量转换为 native python 标量会使 a[...]
中的附加逻辑花费的时间不堪重负。/a.__getitem__(...)
.
不要将此结果推广到多个项目
但是,在尝试将 numpy 标量发生的情况概括为 numpy 数组作为一个整体的运作方式时,您应该小心。如果您在 numpy 中进行大量单项索引,这通常是一种反模式。
例如比较:
In [5]: a = np.random.rand(1000)
In [6]: %timeit a + 1
100000 loops, best of 3: 2.32 us per loop
无论我们做什么,我们都无法达到上面矢量化版本 (a + 1
) 的速度(或更低的内存使用率):
In [7]: %timeit [x + 1 for x in a]
1000 loops, best of 3: 257 us per loop
In [8]: %timeit [a.item(i) + 1 for i in range(len(a))]
1000 loops, best of 3: 208 us per loop
部分原因是因为遍历 ndarray
s 比遍历列表慢。为了进行完全公平的比较,让我们将所有内容都转换为原生 Python float 列表:
In [9]: b = a.tolist()
In [10]: type(b[0])
Out[10]: float
In [11]: %timeit [x + 1 for x in b]
10000 loops, best of 3: 69.4 us per loop
显然,当您在较大的数组上进行操作时,使用矢量化操作(第一种情况)要快得多。它的内存效率也更高,如 list
s 需要存储指向每个项目的指针,而 ndarray
s 在内存中是连续的。
关于python - Numpy item 比 operator[] 更快,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32333765/