machine-learning - 神经网络迭代、梯度下降步数、纪元、批量大小的含义是什么?

标签 machine-learning neural-network gradient-descent

你能解释一下下面这句话吗,这让我很困惑。 1.迭代 2.梯度下降步骤 3.纪元 4.批量大小。

最佳答案

在神经网络术语中:

  • 一个epoch = 所有训练样本的一次前向传递和一次反向传递
  • 批量大小 = 一次前向/后向传递中的训练示例数量。批量大小越大,您需要的内存空间就越大。
  • 迭代次数 = 传递次数,每次传递使用 [批量大小] 示例数。需要明确的是,一次传球 = 一次前向传球 + 一次后向传球(我们不将前向传球和后向传球算作两次不同的传球)。

示例:如果您有 1000 个训练示例,并且批量大小为 500,则需要 2 次迭代才能完成 1 个 epoch。

梯度下降:

请观看本次讲座: https://www.coursera.org/learn/machine-learning/lecture/8SpIM/gradient-descent (来源:Andrew ng,Coursera)

enter image description here 那么让我们看看梯度下降是做什么的。想象一下,这就像某个绿草如茵的公园的景观,有两座山,我希望我们想象你正站在山上的那个点上,在你的公园里的这座红色小山上。 enter image description here

事实证明,如果你站在山上的那个点,环顾四周,你会发现最好的方向是向下走一小步,大致就是那个方向。 enter image description here

好的,现在你已经到了山上的这个新点了。你会再次环顾四周,问我应该朝哪个方向迈出一步,才能迈出一小步下坡?如果你这样做并再迈出一步,你就朝那个方向迈出了一步。

enter image description here

然后你继续前进。从这个新的点开始,你环顾四周,决定哪个方向会带你最快下坡。再走一步,再走一步,依此类推,直到收敛到此处的局部最小值。

enter image description here

在梯度下降中,我们要做的是旋转 360 度,环顾四周,然后问,我是否要朝某个方向迈出一小步,我想要为了尽快走下坡路,我该向哪个方向迈出那小小一步呢?如果我想下山,那么我想尽可能快地走下这座山。

enter image description here

我希望您现在了解梯度下降步骤的重要性。希望这对您有帮助!

关于machine-learning - 神经网络迭代、梯度下降步数、纪元、批量大小的含义是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39340429/

相关文章:

algorithm - 如何为 B2B 创建神奇的购物车?

machine-learning - 我应该在将特征放入 RNN 之前对其进行标准化吗?

machine-learning - 了解caffe库

python - 同时更新 theta0 和 theta1 以计算 python 中的梯度下降

machine-learning - 构建决策树时没有剩余示例的情况

image-processing - 如何计算连续特征的信息增益

machine-learning - 用最少的上下文对原始文本进行情感分析和有效聚类

c# - Q深度学习算法不工作

tensorflow - 如何使用 keras/tensorflow 发现方程变量的值?

matlab - 我对随机梯度下降的实现是否正确?