(LGB+LR)关于lightgbm中的参数y_pred = gbm.predict(X_train, pred_leaf=True)

  统计/机器学习 监督式学习 推荐系统 特征选择 Python    浏览次数:148        分享
0


X_trin=X1[0:5000]
y_train=Y1[0:5000]
gbm = lgb.LGBMClassifier(boosting_type='gbdt',max_depth=-1,objective='multiclass',
             num_leaves=5,learning_rate=0.6,n_estimators=1500,metric= 'multi_error',max_bin=150,verbose=-1)
gbm.fit(X_train, y_train,eval_set=[(X1, Y1)],early_stopping_rounds=500,eval_metric='multi_error')
y_pred = gbm.predict(X_train, pred_leaf=True)
print(y_pred.shape)

 上面的是LGB的参数,训练样本5000,标签四分类0,1,2,3


上面是运行结果 我想请教下1308代表的是什么 我看网上说y_pred[:,0] 输出的才是index 但是我不知道为什么

 

classifier   2020-03-19 20:52



   1个回答 
0

你把关键代码复制一下,不然也不知道你的y_pred是什么意思

如果你要得到每个叶子的输出结果,你在调用模型进行predict或者predict_proba的时候设置一下参数,例如:

clf = LGBMClassifier(...)
leaves = clf.predict(x_test, pred_leaf=True)


SofaSofa数据科学社区DS面试题库 DS面经

黑泽先生   2020-03-20 08:43

你好,我把补充的发下面了,麻烦你看下,谢谢啦 - classifier   2020-03-20 20:34
您的发帖不符合社区规范,问题补充可以直接对原问题修改。现在已帮您修复。谢谢配合。 - SofaSofa驹炜   2020-03-20 21:42


  相关主题

使用lightgbm,训练前对数据特征赋予权重是否对结果有影响   1回答

随机森林每次用多少个特征?   2回答

word2vec和GBDT模型能结合吗   2回答

随机森林给出的变量的Importance是怎么来的   2回答

对于数值特征,决策树是如何决定阈值的?   3回答

怎么理解lightgbm中的直方图法选择分裂点?   1回答

怎么理解决策树是模型自己在做interaction?   2回答

随机森林警告:A column-vector y was passed when a 1d array was expected   1回答

adaboost里的feature importance和随机森林里的feature importance是一回事吗?   1回答

为什么特征重要性约大,在决策树里分裂的顺序却是越靠后呢?   1回答

决策树怎么做增量学习或者online学习?   1回答

Adaboost里的树有没有可能权重是负数?   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!