组件名称

  GBDT回归 [版本号:1] [更新时间:2018-05-08]

简介

  梯度提升决策树算法((Gradient Boosting Decison Tree,简称GBDT),与原始Boost算法类似,是集成学习家族Boosting的一种。平台的GBDT算法基于J.H. Friedman. "Stochastic Gradient Boosting" 1999。

输入和输出

  输入端口个数:1

  输出端口个数:1

参数配置

参数名称 参数说明 参数默认值 是否必填
计算信息增益的准则 目前只支持方差Variance,表示无序程度,方差越大,说明数据间差异越大(贪婪算法,每次切分使得数据变得最为有序) 默认不可选 variance 必填
步长 每次优化迭代的步长大小(> = 0) 可选 0.1 必填
最小实例数 每个子项在拆分后必须具有的最小实例数。 如果拆分后导致左或右子节点少于最小实例数,则此拆分将作为无效丢弃。 可选 1 必填
种子数 设置随机种子数值,大于0的整数. 默认是空 可选 必填
损失函数类型 GBT试图最小化(不区分大小写)的损失函数。支持的选项有:squared,absolute. 可选 squared 必填
迭代次数 最大迭代次数(> = 0) 可选 20 必填
最小信息增益值 分裂节点时所需最小信息增益值 可选 0 必填
最大的划分数 连续型特征离散化的最大数量 可选 100 必填
用于学习每个决策树的训练数据的比例分数 在范围(0,1] 可选 1 必填
最大树深 5 必填

字段配置

字段名称 字段说明 字段默认值 是否必配
特征列 输入模型的样本特征列 必选 支持Double/Int类型字段 必填
标签列 输入模型的样本类别标签列 必选 支持Double/Int类型字段 必填

输出节点的字段配置说明

  运行后不生成新字段。后续节点可以直接选择字段。

results matching ""

    No results matching ""