我已经在 Keras 中实现了一个绑定(bind)权重自动编码器并成功训练了它。
我的目标是仅使用自动编码器的解码器部分作为另一个网络的最后一层,以微调网络和解码器。
事情是,正如您从下面的摘要中看到的那样,解码器在我的绑定(bind)权重实现中没有参数,因此没有什么可以微调的。 (decoder.get_weights()
返回 []
)
我的问题是:我是否应该更改绑定(bind)权重的实现,以便绑定(bind)层仍然可以保留权重,即编码器的转置权重?如果是,如何?
还是我离题太远了?
下面是自动编码器模型的总结以及绑定(bind)的密集层的类(从 https://github.com/nanopony/keras-convautoencoder/blob/master/autoencoder_layers.py. 稍微修改)
Layer (type) Output Shape Param # Connected to
====================================================================================================
encoded (Dense) (None, Enc_dim) 33000 dense_input_1[0][0]
____________________________________________________________________________________________________
tieddense_1 (TiedtDense) (None, Out_Dim) 0 encoded[0][0]
====================================================================================================
Total params: 33,000
Trainable params: 33,000
Non-trainable params: 0
________________________________________________________________________
class TiedtDense(Dense):
def __init__(self, output_dim, master_layer, init='glorot_uniform', activation='linear', weights=None,
W_regularizer=None, b_regularizer=None, activity_regularizer=None,
W_constraint=None, b_constraint=None, input_dim=None, **kwargs):
self.master_layer = master_layer
super(TiedtDense, self).__init__(output_dim, **kwargs)
def build(self, input_shape):
assert len(input_shape) >= 2
input_dim = input_shape[-1]
self.input_dim = input_dim
self.W = tf.transpose(self.master_layer.W)
self.b = K.zeros((self.output_dim,))
self.params = [self.b]
self.regularizers = []
if self.W_regularizer:
self.W_regularizer.set_param(self.W)
self.regularizers.append(self.W_regularizer)
if self.b_regularizer:
self.b_regularizer.set_param(self.b)
self.regularizers.append(self.b_regularizer)
if self.activity_regularizer:
self.activity_regularizer.set_layer(self)
self.regularizers.append(self.activity_regularizer)
if self.initial_weights is not None:
self.set_weights(self.initial_weights)
del self.initial_weights
最佳答案
这个问题已经过去 2 年多了,但这个答案对某些人来说可能仍然有意义。
Layer.get_weights()
函数从 self.trainable_weights
和 self.non_trainable_weights
中检索(参见 keras.engine.base_layer.Layer.weights)。在您的自定义层中,您的权重 self.W
和 self.b
没有被添加到任何这些集合中,这就是该层具有 0 个参数的原因。
您可以按如下方式调整您的实现:
class TiedtDense(Dense):
def __init__(self, output_dim, master_layer, **kwargs):
self.master_layer = master_layer
super(TiedtDense, self).__init__(output_dim, **kwargs)
def build(self, input_shape):
assert len(input_shape) >= 2
input_dim = input_shape[-1]
self.input_dim = input_dim
self.kernel = tf.transpose(self.master_layer.kernel)
self.bias = K.zeros((self.units,))
self.trainable_weights.append(self.kernel)
self.trainable_weights.append(self.bias)
注意:为简单起见,我排除了正则化项和约束。如果你想要那些,请引用keras.engine.base_layer.Layer.add_weight .
关于python - Keras 中具有绑定(bind)权重的自动编码器的解码器权重,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42015116/