machine-learning - 无导数的梯度下降

标签 machine-learning neural-network deep-learning backpropagation gradient-descent

所以我试图理解梯度下降,但我很困惑。如果你有一条抛物线,它表示你改变重量时的损失。为什么不简单地找到抛物线的顶点,而不是在我们所在的 x 点求导呢?

最佳答案

你可以。如果您的损失函数实际上是抛物线(或其他方便的凸函数),则可以。但更有可能的是,您的损失函数是非凸且 super 复杂的,并且您不知道它是什么。所以我们按照我们的方式使用梯度下降——不断采样。当您看到方便的抛物线时,这只是一个简化的说明。

关于machine-learning - 无导数的梯度下降,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55565818/

相关文章:

python - PyBrain 多个目标值

python - 调试神经网络

python - 基于FFT的音频分类

deep-learning - 张量(1.0).item()与 float (张量(1.0))

audio - 我想知道 'd-vector'进行说话人区分

machine-learning - cRFsuite 预测的置信度

python - pytorch损失如何与模型参数联系起来?

java - (Java)用于隐层反向传播的偏导数

python - 致命标志解析错误 :Unknown command line flag 'logtostderr'