模型融合问题

  统计/机器学习 监督式学习 开放问题 数据竞赛    浏览次数: 350
0

求问下模型融合,怎么知道两个单一模型融合后一定能够得到更优解呢

比如说SOFA 中自行车单一XGBOOST调参后能够达到15,而与逻辑斯特回归融合后却是下降,无论怎样分配权重都是,求大神指教

 

mantora   2018-02-02 15:33



   2个回答 
0

"求问下模型融合,怎么知道两个单一模型融合后一定能够得到更优解呢"

未必吧,没有科学道理啊


“比如说SOFA 中自行车单一XGBOOST调参后能够达到15,而与逻辑斯特回归融合后却是下降”

为什么是逻辑回归呢?应该是线性回归吧


DuckU   2018-02-04 07:20

0

模型融合能够提高精度的前提是你的base level模型是真的很base....不能上来就加boosting或者bagging啥的


mosthated   2018-02-25 01:50



  相关主题

请教一下:关于融合stack   1回答

随机森林中的predict_proba   1回答

numpy.array转换为图片并显示出来   2回答

kNN算法有哪些缺点?   6回答

SVM模型的可解释性如何?   1回答

为什么bias-variance一定会trade off?   2回答

非参模型是什么意思?有哪些模型算是非参的?   2回答

Bagging是什么意思?   3回答

推荐开放数据库   5回答

在线算法(online algorithm)是什么意思?   2回答

机器学习算法中有哪些用到了贪婪算法的思想?   5回答

bias-variance tradeoff是什么意思?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!