我是 tensorflow 的新手,正在尝试根据教程实现“seq2seq”模型。我不确定函数“embedding_attention_seq2seq”的一个参数“num_heads”(默认值=1)。它代表什么?我在相关论文中没有找到。
最佳答案
你有没有读过像this one这样的解码器的源代码?你会知道它代表关注的数量。
有时会有多个注意(分层注意),例如 this paper 中的这个(如下所示) .
长话短说;博士;第一个是单词,第二个是句子。
请检查此图:
关于nlp - tensorflow的seq2seq.embedding_attention_seq2seq中的"attention heads",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38113303/