我一直在通过一本书更新我对数据结构和算法的知识。我在书中看到了一些示例代码,包括一些我似乎无法理解的运行时分析值。我不知道我是想多了还是漏掉了一些非常简单的东西。请帮帮我。
在这种情况下,他们解释了在列表中的特定索引处添加元素背后的逻辑。我明白了,这很简单。移动所有元素,从最右边的一个开始,向右移动一个索引,为索引处的元素腾出空间。本书中的代码如下:
for j in range(self._n, k, −1): self._A[j] = self._A[j−1]
我没有得到的是循环的范围。从技术上讲,
self._n
相当于len(list)
(由列表维护的内部状态)。如果你从len(list)
开始,您立即位于IndexOutOfBoundError
.其次,即使那不是真的,循环也会替换n
与n-1
.它实际上没有移动到任何地方n
至n+1
首先,这样值(value)就丢失了。我在这里错过了什么吗?我实际上在 Python 解释器上尝试了这些条件,它们似乎验证了我的理解。列表操作的一些运行时分析似乎让我感到困惑。例如:
data.index(value) --> O(k+1) value in data --> O(k+1) data1 == data2 (similarly !=, <, <=, >, >=) --> O(k+1) data[j:k] --> O(k−j+1)
我不明白为什么
+1
在每次运行时间分析结束时。让我们考虑data.index(value)
操作,它基本上返回找到特定值的第一个索引。在最坏的情况下,它应该遍历所有n
列表的元素,但如果不是,则如果搜索在索引k
处找到某些内容,然后它从那里返回。为什么O(k+1)
那里?同样的逻辑也适用于其他情况,尤其是列表切片。当你对一个列表进行切片时,它不就是O(k-j)
吗? ?相反,实际指数是j
至k-1
.
这个理解应该是比较初级的,看不懂真的觉得很傻。或者不知道书中有没有正版勘误,我理解正确。有人可以为我澄清一下吗?非常感谢您的帮助。
最佳答案
注意(来自评论):有问题的书是 Data Structures and Algorithms in Python by Goodrich, Tamassia and Goldwasser ,问题是关于第 202 到 204 页的。
如果您实际查看 insert
的整个定义从书中看,它更有意义。
def insert(self, k, value):
if self.n == self.capacity:
self.resize(2 * self.capacity)
for j in range(self.n, k, −1):
self.A[j] = self.A[j−1]
self.A[k] = value
self.n += 1
第一行暗示self.n
是元素的数量,对应于尾后的索引,这意味着对于列表的用户来说,在该索引处访问它是错误的。但是这段代码属于列表,因为它除了有大小还有容量,所以可以用self.A[n]
如果self.n < self.capacity
(for 循环开始时为真)。
循环只是将最后一个元素(在索引 n-1
处)移动到内存中的下一个空间,这对用户来说是越界的,但不是内部的。最后,n
递增以反射(reflect)新的大小,并且 n-1
成为“内存中的下一个空间”的索引,它现在包含最后一个元素。
至于不同操作的时间复杂度:好吧,它们并没有错。尽管O(n+1) = O(n)
, 你仍然可以写 O(n+1)
如果你愿意,在某些情况下它可能更“精确”。
例如,写成data.index(value)
复杂度为 O(k+1)
, 与 k
正在搜索的值的索引。好吧,如果那个值在最开始,那么k = 0
复杂度为 O(0+1) = O(1)
.这是真的:如果你总是在一开始就搜索一个你知道的值,即使这个操作毫无意义,它也有一个恒定的时间复杂度。如果您最初写了 O(k)
相反,你会得到 O(0)
对于最后一个操作,我从未见过它被使用过,但会让我认为该操作是即时的。
切片也会发生同样的事情:他们可能写了 O(k−j+1)
因为如果你只取一个元素,那么 j = k
复杂度为 O(1)
而不是 O(0)
.
请注意,时间复杂度通常不是根据函数的特定应用程序的实际索引来定义的,而是根据使用该函数的容器中的元素总数来定义的。您可以将其视为使用具有每个可能索引的函数的平均复杂度,在 index
的情况下和切片,就是O(n)
.
关于python - 关于数据结构和算法书中代码的问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53098111/