模型融合问题

  统计/机器学习 监督式学习 开放问题 数据竞赛    浏览次数: 257
0

求问下模型融合,怎么知道两个单一模型融合后一定能够得到更优解呢

比如说SOFA 中自行车单一XGBOOST调参后能够达到15,而与逻辑斯特回归融合后却是下降,无论怎样分配权重都是,求大神指教

 

mantora   2018-02-02 15:33



   2个回答 
0

"求问下模型融合,怎么知道两个单一模型融合后一定能够得到更优解呢"

未必吧,没有科学道理啊


“比如说SOFA 中自行车单一XGBOOST调参后能够达到15,而与逻辑斯特回归融合后却是下降”

为什么是逻辑回归呢?应该是线性回归吧


DuckU   2018-02-04 07:20

0

模型融合能够提高精度的前提是你的base level模型是真的很base....不能上来就加boosting或者bagging啥的


mosthated   2018-02-25 01:50



  相关主题

请教一下:关于融合stack   1回答

numpy.array转换为图片并显示出来   2回答

kNN算法有哪些缺点?   6回答

为什么bias-variance一定会trade off?   2回答

baseline模型和benchmark模型的差别?   1回答

ensemble模型时,bagging和stacking有什么区别?   2回答

机器学习中的奥卡姆剃刀原理是什么意思   5回答

Bagging是什么意思?   3回答

如何理解PAC Learning?   1回答

机器学习+计算机网络   2回答

机器学习如何快速入门?   1回答

如何理解VC dimension?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!