王冠嵩
王冠嵩
首页
文章
项目
相册
关于
联系
浅色
深色
自动
中文 (简体)
English
2018
8.3 贝叶斯方法
第 267-270 页。如果使用无信息先验分布,则贝叶斯方法会得到与最大似然和自助法一样的结果。
王冠嵩
2018-12-14
统计学习基础(译注)
8.4 自助法与贝叶斯推断的关系 😱
第 271-272 页。自助法得到的分布近似于非参数无信息后验分布,可看作是“山寨版”的贝叶斯后验分布。而且它很容易计算,不需要指定先验函数也不需要从后验分布抽样。
王冠嵩
2018-12-17
统计学习基础(译注)
8.5 最大期望(EM)算法
第 272-279 页。引入隐变量后,将对似然函数的最大化分解为期望(E)和最大化(M)两个步骤交替进行。
王冠嵩
2018-12-18
统计学习基础(译注)
8.6 后验分布的马尔可夫链蒙特卡洛抽样
第 279-282 页。吉布斯采样基于条件分布进行抽样,最终稳定后样本服从联合分布。其流程与最大期望算法比较相似。
王冠嵩
2018-12-20
统计学习基础(译注)
8.7 自助聚合(Bagging)
第 282-288 页。自助聚合通过对自助样本上的预测取平均,保持偏差的同时降低了方差,从而改善了模型。自助聚合需要自助抽样彼此之间相对独立。
王冠嵩
2018-12-24
统计学习基础(译注)
8.8 模型平均和堆叠(stacking)
第 288-290 页。在对模型的平均中,委员会方法赋予各个模型相同的权重,堆叠方法赋予各个模型(估计)最优权重。
王冠嵩
2018-12-27
统计学习基础(译注)
8.9 随机搜索:Bumping
第 290-292 页。Bumping 方法在自助样本上拟合模型,然后在原始的训练集上根据某个准则来选择模型。它适用于会遇到很多局部解或选取准则不易最优化的问题中。
王冠嵩
2018-12-27
统计学习基础(译注)
9 加性模型、树模型和相关方法
第 295-336 页。
王冠嵩
最近更新于 2022-09-26
统计学习基础(译注)
9.1 广义加性模型
第 295-304 页。广义加性模型是对线性模型的一个有效的推广,在保持了可解释性的同时,可纳入一些非线性的效果。
王冠嵩
最近更新于 2022-09-26
统计学习基础(译注)
9.2 树结构模型
第 305-317 页。介绍了回归树和决策树的 CART 实现,以及树模型的优点和缺点。
王冠嵩
最近更新于 2022-05-31
统计学习基础(译注)
«
»