lightgbm使用自定义损失函数后,二分类的预测结果不再是【0,1】区间

  统计/机器学习 监督式学习    浏览次数:1977        分享
1

如题,对lightgbm使用如下的自定义函数后


def logistic_obj(y_hat, dtrain):
    y = dtrain.get_label()
    p = y_hat 
    p = 1. / (1. + np.exp(-y_hat)) # 用于避免hessian矩阵中很多0
    grad = p - y
    hess = p * (1. - p)
    grad = 4 * p * y + p - 5 * y
    hess = (4 * y + 1) * (p * (1.0 - p))
    return grad, hess

其预测结果不再是【0,1】,而是有正有负。如果再结果上再加一层sigmoid,效果和不自定义损失函数差很多。

 

wwb_306   2020-06-17 08:55



    还没有回答。我来答!  


  相关主题

随机森林中增加树的数量对于偏差和方差的影响   2回答

请问针对Adaboost、GBDT等集成学习同一个特征是否可以入模多次?   1回答

Extra Tree算法   1回答

随机森林的模型一般都很大么?   3回答

python sklean中的决策树是用的哪一种决策树算法?   2回答

怎么得到randomforestregressor里每棵树的预测结果?   1回答

决策树是如何得到量化的概率,不只是0或1的标签?   2回答

随机森林是如何计算测试样本的概率的?   0回答

关于knn算法中kd树的问题   1回答

决策树的深度和数据特征个数的关系   1回答

决策树可以做多元分类吗?   1回答

随机森林警告:A column-vector y was passed when a 1d array was expected   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!