python - Keras 嵌入, "weights"参数在哪里?

标签 python tensorflow keras

我见过这样的代码:

embed_word = Embedding(params['word_voc_size'], params['embed_dim'], weights=[word_embed_matrix], input_length = params['word_max_size']
                        , trainable=False, mask_zero=True)

当我在 Keras 网站上查找文档时 [ https://faroit.github.io/keras-docs/2.1.5/layers/embeddings/][1]

我没有看到权重参数,

keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input_length=None)

所以我很困惑,为什么我们可以使用 Keras 文档中未定义的参数权重?

我的keras版本是2.1.5。希望有人能帮助我。

最佳答案

Keras 的 Embedding 层是 Layer 类的子类(每个 Keras 层都这样做)。 weights 属性是在这个基类中实现的,所以每个子类都允许通过 weights 参数设置这个属性。这也是为什么您不会在文档或 Embedding 层本身的实现中找到它的原因。

您可以检查基础层实现 here (Ctrl + F 表示“重量”)。

关于python - Keras 嵌入, "weights"参数在哪里?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53627251/

相关文章:

python-3.x - keras LSTM 模型中的尺寸不匹配

python - LSTM 网络期望最后一层的目标具有 2 维,但得到形状为 (996, 1, 1) 的数组

python - python中的反向DNS查找返回错误的主机

python - 我在调整 ConvLSTM 模型的大小/输入数组时收到错误消息

python - Pandas 从数据透视表绘图

tensorflow - 如何使用 tf.saved_model 加载模型并调用预测函数 [TENSORFLOW 2.0 API]

machine-learning - Keras:如何将输入直接输入神经网络的其他隐藏层而不是第一个隐藏层?

python - 生成总和等于 0 的 N 个随机单位向量(Python)

python - 为什么我的损失趋于下降,而我的准确度却趋于零?

python - 尽管安装了 tensorflow 2.0.0-beta1,但无法使用 pip 安装 tensorflow-text