简而言之:我目前正在阅读《Online Learning with Kernels》(http://books.nips.cc/papers/files/nips14/AA33.pdf)以获取乐趣,但我不明白他是如何从方程 6 和 7 得出方程 8 的。
想法是:我们希望最小化风险函数
$R_stoch\[f,t\]:=c(x_t,y_t,f(x_t))+\lambda\Omega\[f\]$
如果我们想将表示定理应用于f
,则将其写为
$f(x)=\sum\alpha_i k(x,x_i)$
我们如何获得STOCHASTIC
梯度下降更新?
最佳答案
一组k(xi, x)似乎形成了H的基础,并且由于f 在 H 中,那么 f 可以写成“核函数”的线性组合。
所以假装k(xi, x)的集合形成了H的基础,很明显,如果我们有一些线性战斗左边的一个和右边的另一个,并且它们相等,那么它们的基向量系数也应该相等(线性代数中众所周知的事实,向量相等意味着向量系数(在相同的基下) !)平等)。
关于statistics - 具有随机梯度下降的原始核 SVM,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14007771/