statistics - 具有随机梯度下降的原始核 SVM

标签 statistics machine-learning

简而言之:我目前正在阅读《Online Learning with Kernels》(http://books.nips.cc/papers/files/nips14/AA33.pdf)以获取乐趣,但我不明白他是如何从方程 6 和 7 得出方程 8 的。

想法是:我们希望最小化风险函数

$R_stoch\[f,t\]:=c(x_t,y_t,f(x_t))+\lambda\Omega\[f\]$

如果我们想将表示定理应用于f,则将其写为

$f(x)=\sum\alpha_i k(x,x_i)$

我们如何获得STOCHASTIC梯度下降更新?

最佳答案

一组k(xi, x)似乎形成了H的基础,并且由于fH 中,那么 f 可以写成“核函数”的线性组合。

所以假装k(xi, x)的集合形成了H的基础,很明显,如果我们有一些线性战斗左边的一个和右边的另一个,并且它们相等,那么它们的基向量系数也应该相等(线性代数中众所周知的事实,向量相等意味着向量系数(在相同的基下) !)平等)。

关于statistics - 具有随机梯度下降的原始核 SVM,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14007771/

相关文章:

amazon-web-services - 在哪里部署用于 API 预测的机器学习模型?

python - 我的 Keras 多输出神经网络是否因为没有足够的层数而未收敛?

python - 了解sklearn GridSearchCV的best_score_和best_estimator_

python - Statsmodels - 通过显式提供要使用的 endog 值,使用训练有素的 arima 模型进行手动点预测

基于Python的SVM库

scala - Apache 弗林克 : changing state parameters at runtime from outside

mysql - 如何找到某栋建筑中男性和女性的比例?

python - 在scipy中如何计算峰度?

r - 具有交互作用的三因素逻辑回归

python - 阻止网络预测所有的