python - Transformer官方发布的位置编码与原始论文不同

标签 python tensorflow transformer-model

在原始论文Attention is all you need中,位置编码定义为: pe

但是在 Transformer's model_utils.py ,我发现第53行的公式不一样。论文中,sincos函数按照偶数或单维交替出现,而在分别为尺寸的一半。

最佳答案

你是对的,但我认为这没有什么区别。无论您连接 sin/cos 还是使它们交替出现在最终向量中,每个位置与位置编码的表示都是唯一的。

只要编码是唯一的并且我们始终一致地生成编码,位置信息就会保留在模型中。

关于python - Transformer官方发布的位置编码与原始论文不同,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51074006/

相关文章:

python - 调整MobileNet的训练数据百分比

tensorflow - 我正在尝试使用 Mask RCNN 构建对象检测,但在调用 MaskRCNN 方法时出现错误

xml-parsing - 使用 StAXResult 调用 Transformer 时省略 XML 声明

python - 如何使用 multipart/form-data 创建一个将 pdf 文件作为输入的 AWS Lambda/API 网关 python 函数?

python - 从 python 读取 stdout 生成 XML

python - 将混合模型移植到 pymc3

java - 无法计算 XPath 中的表达式

python - 在 numpy (python) 中定义和乘以矩阵

python - 无法在 Ubuntu 12.04 LTS 上正确安装或加载 Tensorflow,并导致 ImportError

pytorch - 在管道中使用带有参数的拥抱面转换器