王冠嵩
王冠嵩
首页
文章
项目
相册
关于
联系
浅色
深色
自动
中文 (简体)
English
2018
11.2 投影寻踪回归
第 389-392 页。投影寻踪是一个泛逼近器,用输入变量线性组合的非线性函数可逼近任意的连续函数。它的本质思想与神经网络模型一致。
王冠嵩
最近更新于 2022-04-01
统计学习基础(译注)
11.3 神经网络
第 392-395 页。神经网络模型的本质是一种非线性的统计模型。本节以单隐层反向传播网络为例,介绍了神经网络的基本结构。
王冠嵩
2019-02-16
统计学习基础(译注)
11.4 神经网络的拟合
第 395-397 页。反向传播(BP)的拟合方法本质上是一个只用到一阶更新的梯度下降过程。神经网络的结构使这个过程具有局部性,因此可利用并行的计算结构。BP 的更新是一种批量学习,所以也可以进行在线训练。但由于只用到一阶梯度,BP 的收敛过程可能会非常慢。
王冠嵩
2019-02-17
统计学习基础(译注)
11.5 训练神经网络的一些问题
第 397-401 页。初始值的选择、用正则化方法来避免过拟合、对输入变量的标准化处理、单元和层的个数的选择、多个局部极小值点的处理。
王冠嵩
2019-02-18
统计学习基础(译注)
11.6 示例:模拟数据
第 401-404 页。在模拟数据例子中,演示单隐层神经网络模型,以及隐藏单元个数和权重衰减参数对模型效果的影响。
王冠嵩
2019-02-18
统计学习基础(译注)
11.7 示例:邮政编码数据
第 404-408 页。在手写数字识别的分类问题中演示神经网络模型。在寻找最优模型的过程中,一个方向是扩大备选模型的范围,也就是让模型可以模拟出更复杂的函数结构;另一个方向是根据具体的常识缩小搜寻的范围,比如对模型的系数后结构加以限制。译者在本节有较多不理解之处,待回溯。
王冠嵩
2019-02-24
统计学习基础(译注)
11.8 讨论
第 408-409 页。总结,神经网络模型是一个强大而且通用的方法。由于其缺乏可解释性,所以更适用于预测而不太适用于解释数据和输入变量的关联机制。
王冠嵩
2019-02-24
统计学习基础(译注)
11.9 贝叶斯神经网络和 NIPS 2003 挑战赛
第 409-414 页。Neal and Zhang (2006) 在 NIPS 2003 的分类问题挑战赛中利用贝叶斯神经网络方法赢得了比赛。本节用竞赛的数据集,对比了一系列不同的方法。
王冠嵩
2019-02-28
统计学习基础(译注)
11.10 关于计算量
第 414 页。
王冠嵩
最近更新于 2022-06-14
统计学习基础(译注)
12 支持向量机和灵活判别
第 417-458 页。
王冠嵩
最近更新于 2022-06-14
统计学习基础(译注)
«
»