machine-learning - HDF5中文件数量小于batch时会发生什么

标签 machine-learning neural-network deep-learning caffe

我有一个 hdf5 层,它从 list.txt 中读取信息

layer {
  name: "data"
  type: "HDF5Data"
  top: "data"
  top: "label"
  include {
    phase: TEST
  }
  hdf5_data_param {
    source: "./list.txt"
    batch_size: 4
    shuffle: true
  }
}

其中list.txt包含两个路径文件

/home/user/file1.h5
/home/user/file2.h5

当批量大小为 4 时。上面的代码会发生什么情况?数据可以选择4个文件来馈送到网络吗?

最佳答案

您有两个 hdf5 文件,但每个文件可能包含多个训练示例。因此,实际上,您可能拥有的示例远多于 batch_size: 4 个。

Caffe 并不真正关心训练示例的实际数量:当它完成处理所有示例(也称为“纪元”)时,它只是重新开始读取示例。 Caffe 循环遍历所有样本,直到达到训练/测试迭代次数。

关于machine-learning - HDF5中文件数量小于batch时会发生什么,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43993276/

相关文章:

artificial-intelligence - 我什么时候应该使用遗传算法而不是神经网络?

python - 使用神经网络学习分类值的分布

machine-learning - Keras,稀疏矩阵问题

python - keras 模型会影响输入数据的大小吗?

python - 带有 tensorflow-gpu 的 Keras 完全卡住了 PC

python - 凯拉斯。值错误 : I/O operation on closed file

python - 反向传播算法卡在多层感知器中

python - 在 tensorflow.metrics 中,precision_at_k 和 precision_at_top_k 之间的区别?

machine-learning - 由于 vowpal wabbit 对 boost 库的依赖而导致的错误

python - N 个最高值的 Torch argmax