machine-learning - 作为神经网络性能指标的反向传播数量

标签 machine-learning neural-network metrics backpropagation mini-batch

我一直在阅读有关SRCNN的文章并发现他们正在使用“反向传播的数量”来评估网络的性能,即网络在 x 个反向传播之后能够学习什么(据我所知)。我想知道反向传播的数量实际上意味着什么。这只是训练期间使用的训练数据样本的数量吗?或者也许是小批量的数量?也许它是先前的数字之一乘以网络中可学习参数的数量?或者完全不同的东西?也许还有一些其他更常见的名称,我可以在某个地方循环并阅读更多相关信息,因为我无法通过搜索“反向传播数量”或“反向传播数量”找到任何有用的东西?

额外问题:该指标的使用范围有多广以及效果如何?

最佳答案

I read their Paper from 2016:

  • 作者={C. Dong、C.C. Loy、K. He 和 X. Tang},
  • journal={IEEE 模式分析和机器智能汇刊},
  • title={使用深度卷积网络的图像超分辨率},

由于他们甚至没有提到批处理,我假设他们正在执行反向传播以在每个样本/图像之后更新其权重。

换句话说,它们的批量大小(小批量大小)等于 1 个样本。

因此,反向传播的数量毕竟意味着批处理的数量,这是一个非常常见的指标,即。在论文中 PSNR(损失)随批处理数量(或通常为 loss over epochs )的变化。

额外问题:我得出的结论是,他们只是没有遵循机器学习或深度学习的通用同义词库。

额外奖励问题:他们使用 n 批处理后的损失度量来展示不同网络架构可以在不同大小的训练数据集上学习多少。

关于machine-learning - 作为神经网络性能指标的反向传播数量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48144304/

相关文章:

matlab - 梯度下降和闭合形式解 - MATLAB 中的不同假设线

python - 通过 while_loop 进行 Tensorflow 梯度

user-interface - 是否为机器人的神经网络大脑找到合适的编程语言?

java - 为什么要在 Dropwizard Metrics 中使用 CachedGauage?

api - 来自 k8s 主节点的集群 IP 的连接受损/延迟

python - 从图像中查找车轮中的辐条总数 - OpenCV (Python)

parameters - 训练 VGG-16 需要多少个 epoch

java - DeepLearning4j - 神经网络配置

python - Graphite:sumSeries 函数不起作用

matlab - 为 MATLAB 追加