(LGB+LR)关于lightgbm中的参数y_pred = gbm.predict(X_train, pred_leaf=True)

  统计/机器学习 监督式学习 推荐系统 特征选择 Python    浏览次数:769        分享
0


X_trin=X1[0:5000]
y_train=Y1[0:5000]
gbm = lgb.LGBMClassifier(boosting_type='gbdt',max_depth=-1,objective='multiclass',
             num_leaves=5,learning_rate=0.6,n_estimators=1500,metric= 'multi_error',max_bin=150,verbose=-1)
gbm.fit(X_train, y_train,eval_set=[(X1, Y1)],early_stopping_rounds=500,eval_metric='multi_error')
y_pred = gbm.predict(X_train, pred_leaf=True)
print(y_pred.shape)

 上面的是LGB的参数,训练样本5000,标签四分类0,1,2,3


上面是运行结果 我想请教下1308代表的是什么 我看网上说y_pred[:,0] 输出的才是index 但是我不知道为什么

 

classifier   2020-03-19 20:52



   1个回答 
0

你把关键代码复制一下,不然也不知道你的y_pred是什么意思

如果你要得到每个叶子的输出结果,你在调用模型进行predict或者predict_proba的时候设置一下参数,例如:

clf = LGBMClassifier(...)
leaves = clf.predict(x_test, pred_leaf=True)


SofaSofa数据科学社区DS面试题库 DS面经

黑泽先生   2020-03-20 08:43

你好,我把补充的发下面了,麻烦你看下,谢谢啦 - classifier   2020-03-20 20:34
您的发帖不符合社区规范,问题补充可以直接对原问题修改。现在已帮您修复。谢谢配合。 - SofaSofa驹炜   2020-03-20 21:42


  相关主题

对于树模型,需不需要特征筛选   2回答

对于数值特征,决策树是如何决定阈值的?   3回答

怎么理解lightgbm中的直方图法选择分裂点?   1回答

怎么理解决策树是模型自己在做interaction?   2回答

为什么特征重要性约大,在决策树里分裂的顺序却是越靠后呢?   1回答

随机森林给出的变量的Importance是怎么来的   2回答

随机森林每次用多少个特征?   2回答

adaboost里的feature importance和随机森林里的feature importance是一回事吗?   1回答

关于knn算法中kd树的问题   1回答

python sklean中的决策树是用的哪一种决策树算法?   2回答

剪枝是什么意思   1回答

决策树是如何得到量化的概率,不只是0或1的标签?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!