当前位置:首页 > 技术杂谈 > 正文

RegressionTree(回归树)

2024-03-31 技术杂谈

1.概述

回归树就是用树模型做回归问题,每一片叶子都输出一个预测值。预测值一般是该片叶子所含训练集元素输出的均值,

即 ????=??????(????|??????????????)cm=ave(yi|xi∈leafm)。

 

2.构建过程

回归树采用平方和损失函数

 

每次选择一个切分变量j和切分点s使得

 

 其中

 

 对于拆分的两个部分继续使用上述方式进行拆分,直至满足停止条件(达到指定深度),

 

cm是一个叶子节点的预测值,这个问题很明显如果不限制深度最终会达到一个叶子节点只有一条数据的过拟合现象。

 

 

 

 

 

CART 在分类问题和回归问题中的相同和差异:

  • 相同:
    • 在分类问题和回归问题中,CART 都是一棵二叉树,除叶子节点外的所有节点都有且仅有两个子节点;
    • 所有落在同一片叶子中的输入都有同样的输出。
  • 差异:
    • 在分类问题中,CART 使用基尼指数(Gini index)作为选择特征(feature)和划分(split)的依据;在回归问题中,CART 使用 mse(mean square error)或者 mae(mean absolute error)作为选择 feature 和 split 的 criteria。
    • 在分类问题中,CART 的每一片叶子都代表的是一个 class;在回归问题中,CART 的每一片叶子表示的是一个预测值,取值是连续的。

温馨提示: 本文由Jm博客推荐,转载请保留链接: https://www.jmwww.net/a/17060.html