王冠嵩
王冠嵩
首页
文章
项目
相册
关于
联系
浅色
深色
自动
中文 (简体)
English
2018
9.3 PRIM(耐心规则归纳方法):凸块搜索
第 317-321 页。PRIM 是类比二叉树的另一种在特征空间上产生区域分割的方法,它摆脱了二叉树结构的约束,并且在分割中更有“耐心”,因此可能会得到更好的分割。
王冠嵩
2019-01-02
统计学习基础(译注)
9.4 多元自适应回归样条
第 321-329 页。MARS 方法从自变量生成的分段常数的基函数空间中,以前向分段的形式添加新的模型项,非常适用于高维问题。MARS 可以看成是舍弃了 CART 模型的树结构约束,也因此可以捕捉到加性效应。
王冠嵩
2019-01-12
统计学习基础(译注)
9.5 层级混合专家
第 329-332 页。HME 与 CART 的主要差别是用软性的概率分割代替了硬性的决策分割,并且在终节点中使用了回归模型而不是一个常数。HME 对一个平滑的函数求解最优化,但结果不像 CART 可清楚地表达成树结构。
王冠嵩
2019-01-16
统计学习基础(译注)
9.6 缺失数据
第 332-333 页。如果缺失值不多,可舍弃存在缺失值的样本。一些模型,如树结构模型(CART、MARS 和 PRIM)以及广义加性模型,在拟合过程中可以适应存在缺失值的训练集。另外,一般的方法是用某种模型的预测来填充缺失的特征变量。
王冠嵩
2019-01-16
统计学习基础(译注)
9.7 关于计算量
第 334 页。
王冠嵩
最近更新于 2022-06-14
统计学习基础(译注)
10 提升方法
第 337-388 页。提升方法在迭代过程中不断地调整样本的权重,提高拟合差的样本对基模型的影响力,再将所得到的一系列基模型的加权投票作为最终结果。本节以自适应提升为例演示了提升方法的效果。
王冠嵩
最近更新于 2022-06-14
统计学习基础(译注)
10.2 加性模型的提升拟合
第 341-342 页。将每个基学习器视为基函数,那么提升方法可理解为是一个加性模型的拟合。
王冠嵩
最近更新于 2022-06-14
统计学习基础(译注)
10.3 前向分段加性模型
第 342-343 页。前向分段方法迭代地构建模型,其结果近似于式 10.4 的解。
王冠嵩
最近更新于 2022-06-14
统计学习基础(译注)
10.4 指数损失函数与自适应提升
第 343-345 页。证明了自适应提升 M1 等价于使用了指数损失函数的前向分段加性模型(算法 10.2)。所以,如模拟数据所示,自适应提升 M1 的最优化目标(指数损失函数)并不是误分类误差率。
王冠嵩
最近更新于 2022-06-14
统计学习基础(译注)
10.5 为何用指数损失函数?
第 345-346 页。指数损失函数在计算上可以获得简便的模块化的自适应提升算法,同时在统计学上其样本总体最小值解对应着真实的概率。
王冠嵩
最近更新于 2022-06-14
统计学习基础(译注)
«
»