python - 如何使用python在Tensorboard上显示模型的权重和偏差

标签 python python-3.x tensorflow tensorboard

我已经创建了以下训练模型,并希望在 Tensorboard 上将其可视化:

## Basic Cell LSTM tensorflow

index_in_epoch = 0;
perm_array  = np.arange(x_train.shape[0])
np.random.shuffle(perm_array)

# function to get the next batch
def get_next_batch(batch_size):
    global index_in_epoch, x_train, perm_array   
    start = index_in_epoch
    index_in_epoch += batch_size

    if index_in_epoch > x_train.shape[0]:
        np.random.shuffle(perm_array) # shuffle permutation array
        start = 0 # start next epoch
        index_in_epoch = batch_size

    end = index_in_epoch
    return x_train[perm_array[start:end]], y_train[perm_array[start:end]]

# parameters
n_steps = seq_len-1 
n_inputs = 4 
n_neurons = 200 
n_outputs = 4
n_layers = 2
learning_rate = 0.001
batch_size = 50
n_epochs = 100 
train_set_size = x_train.shape[0]
test_set_size = x_test.shape[0]

tf.reset_default_graph()

X = tf.placeholder(tf.float32, [None, n_steps, n_inputs])
y = tf.placeholder(tf.float32, [None, n_outputs])

# use LSTM Cell with peephole connections
layers = [tf.contrib.rnn.LSTMCell(num_units=n_neurons, 
                                  activation=tf.nn.leaky_relu, use_peepholes = True)
          for layer in range(n_layers)]

multi_layer_cell = tf.contrib.rnn.MultiRNNCell(layers)
rnn_outputs, states = tf.nn.dynamic_rnn(multi_layer_cell, X, dtype=tf.float32)

stacked_rnn_outputs = tf.reshape(rnn_outputs, [-1, n_neurons]) 
stacked_outputs = tf.layers.dense(stacked_rnn_outputs, n_outputs)
outputs = tf.reshape(stacked_outputs, [-1, n_steps, n_outputs])
outputs = outputs[:,n_steps-1,:] # keep only last output of sequence

loss = tf.reduce_mean(tf.square(outputs - y)) # loss function = mean squared error 
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate) 
training_op = optimizer.minimize(loss)

# run graph
with tf.Session() as sess: 
    sess.run(tf.global_variables_initializer())
    for iteration in range(int(n_epochs*train_set_size/batch_size)):
        x_batch, y_batch = get_next_batch(batch_size) # fetch the next training batch 
        sess.run(training_op, feed_dict={X: x_batch, y: y_batch}) 
        if iteration % int(5*train_set_size/batch_size) == 0:
            mse_train = loss.eval(feed_dict={X: x_train, y: y_train}) 
            mse_valid = loss.eval(feed_dict={X: x_valid, y: y_valid}) 
            print('%.2f epochs: MSE train/valid = %.6f/%.6f'%(
                iteration*batch_size/train_set_size, mse_train, mse_valid))

我想知道如何查看权重和偏差以及我为训练提供的输入之间的相关性。

请帮帮我。如果我的问题没有答案,请告诉我是否有任何建议。请询问我是否需要任何东西,我会得到它并告诉你。

最佳答案

我认为在 Tensorboard 上可视化权重的最简单方法是将它们绘制为直方图。例如,您可以按如下方式记录图层。

for i, layer in enumerate(layers):
    tf.summary.histogram('layer{0}'.format(i), layer)

为要记录的每个层或变量创建摘要后,您必须使用 merge_all 函数将它们全部收集起来并创建一个 FileWriter。

merged = tf.summary.merge_all()
writer = tf.summary.FileWriter('directory_name', sess.graph)

最后,您必须与其他操作一起运行摘要并将结果添加到您的作者。

summary, _ = sess.run([merged, training_op], feed_dict={X: x_batch, y: y_batch})
writer.add_summary(summary, iteration_number)

如果您想进一步分析您的权重,我建议将它们恢复为 numpy 数组,如 here 所述.

不过,我不知道有什么简单的方法可以在 Tensorboard 上绘制相关性。如果您只想获得输入的相关性,如果您的数据集不是很大,我建议您使用 scikit 或什至 pandas ( .corr function )。

希望对您有所帮助。也可以引用这个tutorial以获得更深入的解释。

关于python - 如何使用python在Tensorboard上显示模型的权重和偏差,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52112771/

相关文章:

python - Django 查询集与列表

Python 生成 n 个列表的所有 n 个排列

python - 是什么导致了插入排序的这两种实现之间的性能差异?

python-3.x - 安装后如何运行Orange3?

python - 用于多类分类交叉熵损失函数的 Keras CNN

python - tensorflow 和keras : None values not supported

python - 如何在异常后重试迭代器 next()

python - PySpark 将列中的空值替换为其他列中的值

python - 如何解码特殊货币字符?

python - 用于同步训练和验证的可重新初始化迭代器