深度学习原理与TensorFlow实践 作者:喻俨,莫瑜,王琛,胡振邦,高杰
深度学习原理与TensorFlow实践 出版社:电子工业出版社
深度学习原理与TensorFlow实践 内容简介
《深度学习原理与TensorFlow实践》主要介绍了深度学习的基础原理和TensorFlow系统基本使用方法。TensorFlow是目前机器学习、深度学习领域优秀的计算系统之一,《深度学习原理与TensorFlow实践》结合实例介绍了使用TensorFlow开发机器学习应用的详细方法和步骤。同时,《深度学习原理与TensorFlow实践》着重讲解了用于图像识别的卷积神经网络和用于自然语言处理的循环神经网络的理论知识及其TensorFlow实现方法,并结合实际场景和例子描述了深度学习技术的应用范围与效果。
《深度学习原理与TensorFlow实践》非常适合对机器学习、深度学习感兴趣的读者,或是对深度学习理论有所了解,希望尝试更多工程实践的读者,抑或是对工程产品有较多经验,希望学习深度学习理论的读者。
深度学习原理与TensorFlow实践 目录
前言
1 深度学习简介
1.1 深度学习介绍
1.2 深度学习的趋势
1.3 参考资料
2 TensorFlow系统介绍
2.1 TensorFlow诞生的动机
2.2 TensorFlow系统简介
2.3 TensorFlow基础概念
2.4 系统架构
2.5 源码结构
2.6 小结
2.7 参考资料
3 Hello TensorFlow
3.1 环境准备
3.2 Titanic题目实战
3.3 数据挖掘的技巧
3.4 TensorBoard可视化
3.5 数据读取
3.6 SkFlow、TFLearn与TF-Slim
3.7 小结
3.8 参考资料
4 CNN“看懂”世界
4.1 图像识别的难题
4.2 CNNs的基本原理
4.3 经典CNN模型
4.4 图像风格转换
4.5 小结
4.6 参考资料
5 RNN“能说会道”
5.1 文本理解和文本生成问题
5.2 标准RNN模型
5.3 LSTM模型
5.4 更多RNN的变体
5.5 语言模型
5.6 对话机器人
5.7 小结
5.8 参考资料
6 CNN+LSTM看图说话
6.1 CNN+LSTM网络模型与图像检测问题
6.2 CNN+LSTM网络模型与图像摘要问题
6.3 小结
6.4 参考资料
7 损失函数与优化算法
7.1 目标函数优化策略
7.2 类别采样(Candidate Sampling)损失函数
7.3 小结
7.4 参考资料
结语
深度学习原理与TensorFlow实践 精彩文摘
深度学习是目前机器学习学科发展最蓬勃的分支,也是整个人工智能领域中应用前景最为广阔的技术。在现如今的生活中,不管是在iPhone上随手调戏Siri,还是看着 AlphaGo 赢得围棋世界第一的宝座,都让人们真真切切地感受到人工智能已经不再是停留在科幻小说中的幻想,深度学习的时代已经到来了!
人工智能(Artificial Intelligence,AI)是计算机科学中的一个分支学科,早在20世纪50年代就被提出和确立了。著名的“图灵测试”是AI发展的终极目标,如果某种机器运行的逻辑程序可以表现出与人类等价或者无法分辨的智能,则认为机器有了思维,能够进行思考。从实用的角度讲,AI 的目标是要让计算机系统能够自动完成那些需要依靠人类智慧才能完成的工作。
在AI发展的早期阶段,随着计算机自动化所取得的成功,AI的主要方法和思路是将人类总结的知识用一系列规范的、形式化的数学规则来表示,然后通过自动化的程序代替人类处理问题。以知识为基础的专家系统(knowledge-based expert system)就是这方面的典型代表,它将某个领域中人类专家的经验通过知识表示方法写成一条一条规则,系统依照规则推理模拟专家的思维方式。不过,在实际应用中,专家系统都没有取得太大的成功,其最主要的局限性体现在系统明显受到规则数量的限制,规则数量决定了系统对不同情况的适应程度,然而规则是有限的,问题发生时的状况是无限的,用有限的规则处理无限的可能,注定是苦海无涯。
早期在AI方面取得成功的项目,多数解决的是具有明确规则和条件的问题,比如西洋跳棋。1997年IBM的“深蓝”计算机在国际象棋上战胜人类世界冠军卡斯帕罗夫就是这个方面最著名的例子。对于人类来说,下象棋当然是很有挑战的项目,但是相比真实世界的复杂程度而言,国际象棋其实只是一个简单问题。棋盘上只有 32个棋子和64个可以落子的位置,走法规则是非常明确的,所有可能的局面组合是有限的,可以被穷举出来,利用计算机的计算能力辅助以启发式搜索等算法,在摩尔定律的作用下,击败人类只是时间问题。在这类问题中,问题的表示通常都不是难题,一个普通程序员也可以在很短时间内完成一个象棋程序。然而许多真实世界的问题却并不都是那么容易能用计算机语言表达清楚的,比如图像识别和语音识别,这些问题有着比国际象棋大得多的问题域,即使对于人类来说,也有很多不能确定、无法选择的时刻,所以用规则来描述问题是不现实的。
因此,“演绎法”的规则推理暂时行不通,“归纳法”就成为了唯一的出路。基于概率统计的机器学习(machine learning)逐渐成为人工智能的主流方法。与专家系统不同,机器学习不会在系统中输入任何规则,而是直接在大量真实世界产生的数据中挑选最具有代表性的样本(samples)交给算法处理,让算法自动在数据中寻找和学习特定的规律,而这些由数据得来的规律,就是我们本来需要输入的规则。这种从数据中学习规律的过程也叫做模式识别(pattern recognition)。
机器学习的基本思路是假设样本数据与真实世界的概率分布相同,这样就可以认为算法从样本数据中归纳所得的规律在一般情况下同样适用。朴素贝叶斯(naive bayes)和逻辑回归(logistic regression)等算法都是机器学习的经典方法,并且都在实际应用中取得了很好的效果。
机器学习一般分为监督学习和无监督学习两种。监督学习要求每条样本数据都有对应的标签(label),样本数据作为输入,标签作为目标输出,学习的目标是求出输入与输出之间的关系函数y=f(x),使得针对每个输入样本x,都得到期望的输出结果y。朴素贝叶斯、逻辑回归和神经网络等都属于监督学习的方法。而对于无监督学习来说,样本数据并没有标签,学习的目标是为了探索样本数据之间是否有隐含的不易被发现的关系,统计样本的分布情况,典型的算法有K-means等各种聚类算法。
本文来自枯萎○还行投稿,不代表电子书资源网立场,如若转载,请联系原作者获取。