图书介绍

统计学习理论的本质PDF|Epub|txt|kindle电子书版本下载

统计学习理论的本质
  • (美)Vladimir N. Vapnik著;张学工译 著
  • 出版社: 北京:清华大学出版社
  • ISBN:730203964X
  • 出版时间:2000
  • 标注页数:226页
  • 文件大小:9MB
  • 文件页数:243页
  • 主题词:统计学(学科: 研究) 统计学

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

统计学习理论的本质PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

0 引论:学习问题研究的四个阶段1

0.1 Rosenblatt的感知器(60年代)1

0.1.1 感知器模型1

0.1.2 对学习过程分析的开始3

0.1.3 对学习过程的应用分析与理论分析4

0.2 学习理论基础的创立(60—70年代)5

0.2.1 经验风险最小化原则的理论5

0.2.2 解决不适定问题的理论6

0.2.3 密度估计的非参数方法7

0.2.4 算法复杂度的思想7

0.3 神经网络(80年代)8

0.3.1 神经网络的思想8

0.3.2 理论分析目标的简化8

0.4 回到起点(90年代)10

第一章 学习问题的表示11

1.1 函数估计模型11

1.2 风险最小化问题12

1.3 三种主要的学习问题12

1.3.1 模式识别12

1.3.2 回归估计12

1.3.3 密度估计(Fisher-Wald表示)13

1.4 学习问题的一般表示13

1.5 经验风险最小化归纳原则14

1.6 学习理论的四个部分14

非正式推导和评述——116

1.7 解决学习问题的传统模式16

1.7.1 密度估计问题(最大似然方法)16

1.7.2 模式识别(判别分析)问题17

1.7.3 回归估计模型17

1.7.4 最大似然法的局限18

1.8 密度估计的非参数方法19

1.8.1 Parzen窗19

1.8.2 密度估计的问题是不适定的19

1.9 用有限数量信息解决问题的基本原则21

1.10 基于经验数据的风险最小化模型22

1.10.1 模式识别22

1.10.2 回归估计22

1.10.3 密度估计22

1.11 随机逼近推理23

第二章 学习过程的一致性25

2.1 传统的一致性定义和非平凡一致性概念25

2.2 学习理论的关键定理27

2.3 一致双边收敛的充分必要条件28

2.3.1 关于大数定律及其推广29

2.3.2 指示函数集的熵30

2.3.3 实函数集的熵30

2.3.4 一致双边收敛的条件31

2.4 一致单边收敛的充分必要条件32

2.5 不可证伪性理论33

2.6 关于不可证伪性的定理35

2.6.1 完全(Popper)不可证伪的情况35

2.6.2 关于部分不可证伪的定理36

2.6.3 关于潜在不可证伪的定理36

2.7 学习理论的三个里程碑38

非正式推导和评述——240

2.8 概率论和统计学的基本问题40

2.9 估计概率测度的两种方式43

2.10 概率测度的强方式估计与密度估计问题44

2.11 G1ivenko-Cantelli定理及其推广45

2.12 归纳的数学理论46

第三章 学习过程收敛速度的界47

3.1 基本不等式47

3.2 对实函数集的推广49

3.3 主要的与分布无关的界51

3.4 学习机器推广能力的界52

3.5 生长函数的结构54

3.6 函数集的VC维55

3.7 构造性的与分布无关的界57

3.8 构造严格的(依赖于分布的)界的问题59

非正式推导和评述——360

3.9 Kolmogorov-Smirnov分布60

3.10 在常数上的竞赛61

3.11 经验过程的界62

第四章 控制学习过程的推广能力63

4.1 结构风险最小化归纳原则63

4.2 收敛速度的渐近分析65

4.3 学习理论中的函数逼近问题67

4.4 神经网络的子集结构举例69

4.5 局部函数估计的问题70

4.6 最小描述长度与SRM原则71

4.6.1 MDL原则72

4.6.2 对于MDL原则的界73

4.6.3 SRM和MDL原则74

4.6.4 MDL原则的一个弱点75

非正式推导和评述——476

4.7 解决不适定问题的方法76

4.8 随机不适定问题和密度估计问题78

4.9 回归的多项式逼近问题79

4.10 容量控制的问题80

4.10.1 选择多项式的阶数80

4.10.2 选择最优的稀疏代数多项式81

4.10.3 三角多项式集合上的结构81

4.10.4 特征选择的问题81

4.11 容量控制的问题与贝叶斯推理82

4.11.1 学习理论中的贝叶斯方法82

4.11.2 贝叶斯方法与容量控制方法的讨论83

第五章 模式识别的方法85

5.1 为什么学习机器能够推广?85

5.2 指示函数的sigmoid逼近86

5.3 神经网络87

5.3.1 后向传播方法87

5.3.2 后向传播算法90

5.3.3 用于回归估计问题的神经网络90

5.3.4 关于后向传播方法的讨论90

5.4 最优分类超平面91

5.4.1 最优超平面91

5.4.2 △-间隔分类超平面92

5.5 构造最优超平面92

5.6 支持向量机96

5.6.1 高维空间中的推广96

5.6.2 内积的回旋97

5.6.3 构造SV机98

5.6.4 SV机的例子99

5.7 SV机的实验101

5.7.1 平面上的实验102

5.7.2 手写数字识别102

5.7.3 一些重要的细节105

5.8 关于SV机的讨论107

5.9 SVM与Logistic回归108

5.9.1 Logistic回归108

5.9.2 SVM的风险函数110

5.9.3 Logistic回归的SVMn逼近111

5.10 SVM的组合113

5.10.1 AdaBoost方法114

5.10.2 SVM的组合116

非正式推导和评述——5119

5.11 工程技巧与正式的推理119

5.12 统计模型的高明所在121

5.13 从数字识别实验中我们学到了什么?122

5.13.1 结构类型与容量控制精度的影响123

5.13.2 SRM原则和特征构造问题124

5.13.3 支持向量集合是否是数据的一个鲁棒的特性?124

第六章 函数估计的方法126

6.1 ε不敏感损失函数126

6.2 用于回归函数估计的SVM128

6.2.1 采用回旋内积的SV机130

6.2.2 对非线性损失函数的解132

6.2.3 线性优化方法133

6.3 构造估计实值函数的核134

6.3.1 生成正交多项式展开的核134

6.3.2 构造多维核135

6.4 生成样条的核136

6.4.1 d阶有限结点的样条136

6.4.2 生成有无穷多结点的样条的核137

6.5 生成傅里叶展开的核138

6.6 用于函数逼近和回归估计的支持向量ANOVA分解(SVAD)140

6.7 求解线性算子方程的SVM141

6.8 用SVM进行函数逼近144

6.9 用于回归估计的SVM147

6.9.1 数据平滑的问题147

6.9.2 线性回归函数估计148

6.9.3 非线性回归函数估计150

非正式推导和评述——6152

6.10 回归估计问题中的损失函数152

6.11 鲁棒估计的损失函数153

6.12 支持向量回归机器155

第七章 统计学习理论中的直接方法157

7.1 密度、条件概率和条件密度的估计问题157

7.1.1 密度估计的问题:直接表示157

7.1.2 条件概率估计问题158

7.1.3 条件密度估计问题159

7.2 求解近似确定的积分方程的问题160

7.3 Glivenko—Cantelli定理160

7.4 不适定问题162

7.5 解决不适定问题的三种方法164

7.6 不适定问题理论的主要论断166

7.6.1 确定性不适定问题166

7.6.2 随机不适定问题166

7.7 密度估计的非参数方法167

7.7.1 密度估计问题解的一致性167

7.7.2 Parzen估计169

7.8 密度估计问题的SVM解170

7.8.1 SVM密度估计方法:总结172

7.8.2 Parzen和SVM方法的比较173

7.9 条件概率估计175

7.9.1 近似定义的算子176

7.9.2 条件概率估计的SVM方法178

7.9.3 SVM条件概率估计:总结179

7.10 条件密度和回归的估计179

7.11 评注181

7.11.1 评注1.我们可以利用未知密度的一个好估计181

7.11.2 评注2.我们可以利用有标号的(训练)数据,也可以利用无标号的(测试)数据182

7.11.3 评注3.得到不适定问题的稀疏解的方法182

非正式推导和评述——7183

7.12 科学理论的三个要素183

7.12.1 密度估计的问题183

7.12.2 不适定问题的理论184

7.13 随机不适定问题184

第八章 邻域风险最小化原则与SVM187

8.1 邻域风险最小化原则187

8.1.1 硬邻域函数188

8.1.2 软邻域函数190

8.2 用于模式识别问题的VRM方法190

8.3 邻域核的例子193

8.3.1 硬邻域函数194

8.3.2 软邻域函数196

8.4 非对称邻域197

8.5 对于估计实值函数的推广198

8.6 密度和条件密度估计200

8.6.1 估计密度函数200

8.6.2 估计条件概率函数201

8.6.3 估计条件密度函数201

8.6.4 估计回归函数203

非正式推导和评述——8204

第九章 结论:什么是学习理论中重要的?206

9.1 在问题的表示中什么是重要的?206

9.2 在学习过程一致性理论中什么是重要的?208

9.3 在界的理论中什么是重要的?209

9.4 在控制学习机器推广能力的理论中什么是重要的?209

9.5 在构造学习算法的理论中什么是重要的?210

9.6 什么是最重要的?211

参考文献及评述213

对参考文献的评述213

参考文献214

索引220

热门推荐