machine-learning - PyTorch 批量大小在 n epoch 后突然减小

标签 machine-learning deep-learning pytorch

我有一个在 win 10 cpu 上运行的 pytorch nn 模型。 批量大小为 42 67次迭代后,奇怪的事情发生了:batch size突然减少到28,我得到了

RuntimeError: Expected hidden[0] size (1, 28, 256), got (1, 42, 256)

最佳答案

数据集中的训练样本数量有可能不能被 42 整除吗?难道提醒的是28?

如果您的模型无法处理批量大小的在线更改,您应该考虑在 torch.utils.data.DataLoader 中设置 drop_last=True ,因此在训练期间只会处理完整的批处理。

关于machine-learning - PyTorch 批量大小在 n epoch 后突然减小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56864159/

相关文章:

python - 使用深度学习技术的文本摘要

lstm - Pytorch 隐藏状态 LSTM

machine-learning - 如何计算 HMM 的值?

machine-learning - 在生成器网络的输出层中使用 Tanh()

machine-learning - ECG 信号上的 Keras Conv1D

deep-learning - 我们如何计算包含转置卷积层的网络的感受野?

python-3.x - IndexError : invalid index of a 0-dim tensor.使用tensor.item()将0维张量转换为Python数

machine-learning - 最佳降维算法

python - ValueError : Error when checking : expected flatten_1_input to have shape (None, 4, 4, 512) 但得到形状为 (1, 150, 150, 3) 的数组

algorithm - 2个神经元的多层神经网络是否与1个神经元相同