optimization - 如何通过梯度下降优化非负约束

标签 optimization machine-learning convex-optimization

我有以下形式的优化,

argmin_W f(W) 英石。 W_i > 0,对于所有 i

其中 W 是向量,f(W) 是 W 上的函数。 我知道如何在没有非负约束的情况下进行优化。但我不确定如何通过梯度下降来优化它。

最佳答案

开集上的优化非常棘手,所以让我们假设W_i >= 0,因此您可以使用多种方法:

  • 在整个域上优化 f(|W|)
  • 对 f(W) 使用 GD,但每次迭代后将您的解决方案投影回域,因此将 W = |W|
  • 使用约束优化技术,例如 L-BFGS-B

关于optimization - 如何通过梯度下降优化非负约束,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31877083/

相关文章:

c# - 使用预计算平移数组的快速正弦/余弦

tensorflow - 在恢复的对象: (root). Optimizer.iter中找不到检查点中的值

python - 使用边框从图像裁剪脸部

matlab - FMINCON 的替代方案

python - 在具有实际值的 cvxpy 中检查约束是可以的

javascript - 在 Javascript 中避免多重检查条件的最佳方法

algorithm - 在matlab中使用定点法实现快速优化算法

c++ - 我如何重载 new/STL 以使未知对象更快?

image-processing - 人脸认证

least-squares - CVXPY 在二次规划优化问题上返回不可行/不准确