摘要
全面讨论机器学习方法和技术,层次合理、叙述清晰、难度适中。
涵盖了经典的机器学习算法和理论,同时补充了近年来新出现的机器学习方法。
机器学习导论(原书第2版) 内容简介
《机器学习导论(原书第2版)》讨论了机器学习在统计学、模式识别、神经网络、人工智能、信号处理等不同领域的应用,其中涵盖了监督学习、贝叶斯决策理论、参数方法、多元方法、多层感知器、局部模型、隐马尔可夫模型、分类算法评估和比较以及增强学习。
《机器学习导论(原书第2版)》可供完成计算机程序设计、概率论、微积分和线性代数课程的高年级本科生和研究生使用,也可供对机器学习感兴趣的工程技术人员参考。
机器学习导论(原书第2版) 目录
第1章 绪论
1.1什么是机器学习
1.2机器学习的应用实例
1.2.1学习关联性
1.2.2分类
1.2.3回归
1.2.4非监督学习
1.2.5增强学习
1.3注释
1.4相关资源
1.5习题
1.6参考文献
第2章 监督学习
2.1由实例学习类
2.2 VC维
2.3概率逼近正确学习
2.4噪声
2.5学习多类
2.6回归
2.7模型选择与泛化
2.8监督机器学习算法的维
2.9注释
2.10习题
2.11参考文献
第3章 贝叶斯决策定理
3.1引言
3.2分类
3.3损失与风险
3.4判别式函数
3.5效用理论
3.6关联规则
3.7注释
3.8习题
3.9参考文献
第4章 参数方法
4.1引言
4.2最大似然估计
4.2.1伯努利密度
4.2.2多项密度
4.2.3高斯(正态)密度
4.3评价估计:偏倚和方差
4.4贝叶斯估计
4.5参数分类
4.6回归
4.7调整模型的复杂度:偏倚/方差两难选择
4.8模型选择过程
4.9注释
4.10习题
4.11参考文献
第5章 多元方法
5.1多元数据
5.2参数估计
5.3缺失值估计
5.4多元正态分布
5.5多元分类
5.6调整复杂度
5.7离散特征
5.8多元回归
5.9注释
5.10习题
5.11参考文献
第6章 维度归约
6.1引言
6.2子集选择
6.3主成分分析
6.4因子分析
6.5多维定标
6.6线性判别分析
6.7等距特征映射
6.8局部线性嵌入
6.9注释
6.10习题
6.11参考文献
第7章 聚类
7.1引言
7.2混合密度
7.3 k-均值聚类
7.4期望最大化算法
7.5潜在变量混合模型
7.6聚类后的监督学习
7.7层次聚类
7.8选择簇个数
7.9注释
7.10习题
7.11参考文献
第8章 非参数方法
8.1引言
8.2非参数密度估计
8.2.1直方图估计
8.2.2核估计
8.2.3 k-最近邻估计
8.3到多元数据的推广
8.4非参数分类
8.5精简的最近邻
8.6非参数回归:光滑模型
8.6.1移动均值光滑
8.6.2核光滑
8.6.3移动线光滑
8.7如何选择光滑参数
8.8注释
8.9习题
8.10参考文献
第9章 决策树
9.1引言
9.2单变量树
9.2.1分类树
9.2.2回归树
9.3剪枝
9.4由决策树提取规则
9.5由数据学习规则
9.6多变量树
9.7注释
9.8习题
9.9参考文献
第10章 线性判别式
10.1引言
10.2推广线性模型
10.3线性判别式的几何意义
10.3.1两类问题
10.3.2多类问题
10.4逐对分离
10.5参数判别式的进一步讨论
10.6梯度下降
10.7逻辑斯谛判别式
10.7.1两类问题
10.7.2多类问题
10.8回归判别式
10.9注释
10 10习题
10.11参考文献
第11章 多层感知器
11.1引言
11.1.1理解人脑
11.1.2神经网络作为并行处理的典范
11.2感知器
11.3训练感知器
11.4学习布尔函数
11.5多层感知器
11.6作为普适近似的MLP
11.7后向传播算法
11.7.1非线性回归
11.7.2两类判别式
11.7.3多类判别式
11.7.4多个隐藏层
11.8训练过程
11.8.1改善收敛性
11.8.2过分训练
11.8.3构造网络
11.8.4线索
11.9调整网络规模
11.10学习的贝叶斯观点
11.11维度归约
11.12学习时间
11.12.1时间延迟神经网络
11.12.2递归网络
11.13注释
11.14习题
11.15 参考文献
第12章 局部模型
12.1引言
12.2竞争学习
12.2.1在线k-均值
12.2.2自适应共鸣理论
12.2.3自组织映射
12.3径向基函数
12.4结合基于规则的知识
12.5规范化基函数
12.6竞争的基函数
12.7学习向量量化
12.8混合专家模型
12.8.1协同专家模型
12.8.2竞争专家模型
12.9层次混合专家模型
12.10注释
12.11习题
12.12参考文献
第13章 核机器
13.1引言
13.2最佳分离超平面
13.3不可分情况:软边缘超平面
13.4v-SVM
13.5核技巧
13.6向量核
13.7定义核
13.8多核学习
13.9多类核机器
13.10用于回归的核机器
13.11一类核机器
13.12核维度归约
13.13注释
13.14习题
13.15 参考文献
第14章 贝叶斯估计
14.1引言
14.2分布参数的估计
14.2.1离散变量
14.2.2连续变量
14.3函数参数的贝叶斯估计
14.3.1回归
14.3.2基函数或核函数的使用
14.3.3贝叶斯分类
14.4高斯过程
14.5注释
14.6习题
14.7参考文献
第15章 隐马尔可夫模型
15.1引言
15.2离散马尔可夫过程
15.3隐马尔可夫模型
15.4 HMM的三个基本问题
15.5估值问题
15.6寻找状态序列
15.7学习模型参数
15.8连续观测
15.9带输入的HMM
15.10 HMM中的模型选择
15.11注释
15.12习题
15.13参考文献
第16章 图方法
16.1引言
16.2条件独立的典型情况
16.3图模型实例
16.3.1朴素贝叶斯分类
16.3.2隐马尔可夫模型
16.3.3线性回归
16.4 d-分离
16.5信念传播
16.5.1链
16.5.2树
16.5.3多树
16.5.4结树
16.6无向图:马尔可夫随机场
16.7学习图模型的结构
16.8影响图
16.9注释
16.10习题
16.11参考文献
第17章 组合多学习器
17.1基本原理
17.2产生有差异的学习器
17.3模型组合方案
17.4投票法
17.5纠错输出码
17.6装袋
17.7提升
17.8重温混合专家模型
17.9层叠泛化
17.10调整系综
17.11级联
17.12注释
17.13习题
17.14参考文献
第18章 增强学习
18.1引言
18.2单状态情况:K臂赌博机问题
18.3增强学习基础
18.4基于模型的学习
18.4.1价值迭代
18.4.2策略迭代
18.5时间差分学习
18.5.1探索策略
18.5.2确定性奖励和动作
18.5.3非确定性奖励和动作
18.5.4资格迹
18.6推广
18.7部分可观测状态
18.7.1场景
18.7.2例子:老虎问题
18.8注释
18.9习题
18.10参考文献
第19章 机器学习实验的设计与分析
19.1引言
19.2因素、响应和实验策略
19.3响应面设计
19.4随机化、重复和阻止
19.5机器学习实验指南
19.6交叉验证和再抽样方法
19.6.1 K-折交叉验证
19.6.2 5 x2交叉验证
19.6.3自助法
19.7度量分类器的性能
19.8区间估计
19.9假设检验
19.10评估分类算法的性能
19.10.1二项检验
机器学习导论(原书第2版) 精彩文摘
第1章 绪论
1.1 什么是机器学习
为了在计算机上解决问题,我们需要算法。算法是指令的序列,它把输入变换成输出。例如,我们可以为排序设计一个算法,输入是数的集合,而输出是它们的有序列表。对于相同的任务可能存在不同的算法,而我们感兴趣的是如何找到需要的指令或内存最少,或者二者都最少的最有效算法。
然而,对于某些任务,我们没有算法;例如,我们没有将垃圾邮件与正常邮件分开的算法。我们知道输入是邮件文档,最简单的情况是一份字符文件。我还知道输出应该是指出消息是否为垃圾邮件的“是”或“否”,但是我们不知道如何把这种输入变换成输出。所谓的垃圾邮件随时间而变,因人而异。
我们缺乏的是知识,作为补偿我们有数据。我们可以很容易地编辑数以千计的实例消息,其中一些我们知道是垃圾邮件,而我们要做到的是希望从中“学习”垃圾邮件的结构。换言之,我们希望计算机(机器)自动地为这一任务提取算法。不需要学习如何将数排序,因为我们已经有这样的算法;但是,对于许多应用而言,我们确实没有算法,而是有实例数据。
随着计算机技术的发展,我们现在已经拥有存储和处理海量数据以及通过计算机网络从远程站点访问数据的能力。目前大多数的数据存取设备都是数字设备,记录的数据也很可靠。以一家连锁超市为例,它拥有遍布全国各地的数百家分店,并且在为数百万顾客提供数千种商品的零售服务。销售点的终端设备记录每笔交易的详细资料,包括日期、顾客识别码、购买商品和数量、消费总额等。这是典型的每日几个G字节的数据。连锁超市希望能够预测某种产品可能的顾客。对于这一任务,算法同样并非是显然的;它随时间而变,因地域而异。只有分析这些数据,并且将它转换为可以利用的信息时,这些存储的数据才能变得有用,例如做预测。
我们并不确切地知道哪些人倾向于购买这种口味的冰淇淋,或者这位作家的下一本书是什么,也不知道谁喜欢看这部新电影、访问这座城市,或点击这一链接。我们不能确切地知道哪些人比较倾向于购买哪种特定的商品,也不知道应该向喜欢读海明威作品的人推荐哪位作者。如果我们知道,我们就不需要任何数据分析;我们只管供货并记录下编码就可以了。但是,正因为我们不知道,所以才只能收集数据,并期望从数据中提取这些问题或相似问题的答案。
本文来自浅沫投稿,不代表电子书资源网立场,如若转载,请联系原作者获取。