在阅读注意力机制时,我对注意力这个术语感到困惑。它与我们通常定义中描述的注意力本质相同吗?
最佳答案
例如,在机器翻译任务中,直观上相当于输出翻译后的单词,然后回溯所有文本的内部内存,以决定接下来生成哪个单词。这似乎是一种浪费,根本不是人类正在做的事情。事实上,它更类似于内存访问,而不是注意力,在我看来,这有点用词不当(更多内容见下文)。尽管如此,这并没有阻止注意力机制变得相当流行,并且在许多任务上表现良好。
关于deep-learning - 注意力机制到底是真正的注意力还是只是再次回顾内存?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54964953/