tensorflow 。 [batch_size, 1] 和 [batch_size] 之间的差异

标签 tensorflow dimensions

tensorflow tutorial for word embedding发现:

# Placeholders for inputs
train_inputs = tf.placeholder(tf.int32, shape=[batch_size])
train_labels = tf.placeholder(tf.int32, shape=[batch_size, 1])

这两个占位符之间可能有什么区别。它们不都是大小为batch_size的int32列向量吗?

谢谢。

最佳答案

我通过一些调试找到了答案。

[batch_size] = [ 0, 2, ...]
[batch_size, 1] = [ [0], [2], ...]

虽然仍然不知道为什么使用第二种形式。

关于 tensorflow 。 [batch_size, 1] 和 [batch_size] 之间的差异,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36662204/

相关文章:

javascript - 来自视频和图像/蒙版的 Canvas drawImage() 尺寸

security - 基于另一个维度属性的 SSAS 动态维度安全

tensorflow - 从 TFRecord 保存和读取可变大小列表

python - "tf.train.replica_device_setter"是如何工作的?

tensorflow - 堆叠 LSTM 的初始状态结构

api - 是否可以在 Google Analytics 查询过滤器中比较 2 个维度?

android - 使用 "sp"单位而不是 "dp"单位来确定 View 的尺寸

css - HTML 从 Windows 更改为 Mac

python - 如何在 tensorflow 1.15 中正确传递权重和偏差?

python - 如何导入训练好的模型来预测单张图像?