看到知乎上一个问题的回答下有『RBF核:主要用于线性不可分的情形。参数多,分类结果非常依赖于参数。』
请问参数多主要体现在哪里呢?公式里面不就一个sigma平方吗?
2个回答
不确定题主到底有没有理解。但anyway我可以给更详细的解释,对后来者有帮助也是极好的。
Kernel是用来升维的,其升维的原理在于用极少的计算量计算高维度feature vector的内积。也就是说Kernel一定表示的是feature vector的内积,那么现在的问题就在于Gaussian kernel到底表示了什么feature vector的内积?
请看下面的分解:
所以Gaussian kernel “隐性”(implicitly)地表示了两个无限维度feature的内积……之所以是“隐性”是因为我们单纯通过kernel无法知道feature的具体形式。但可以确定feature的维数。
我试着回答一下我的理解。
『RBF核:主要用于线性不可分的情形。参数多,分类结果非常依赖于参数。』这里的参数是模型的参数(系数)。
『请问参数多主要体现在哪里呢?公式里面不就一个sigma平方吗?』这里的参数是指模型的超参数。
我们调参的时候是调节的超参数。模型自己学习的是参数。
我们知道SVM的kernel function很多时候是用来升维的。
每个维度对应着一个参数(线性方程里每个变量前面的系数),升维之后,参数自然变多了。
相关主题
如何评价大数据的未来?
2回答
python能不能直接读取word文本,doc或者docx文件?
1回答
关于大规模稀疏矩阵的问题
2回答
小白求教:一样的数据和差不多的代码,线性回归(LinearRegression)为甚麽自己的和书上的准确率差了挺多
1回答
生存分析中left censored, right censored有什么区别?
1回答
关于node.js的问题
1回答
因子分析的维度是怎么划分的呢
0回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!