神经网络与深度学习 Neural Networks and Deep Learning (美)Michael Nielsen著 Xiaohu Zhu Freeman Zhang 译 April 16 2016 Version: 0.1.1
本书英文原版地址为:neuralnetworksanddeeplearning./.
在学术著作中请引用英文原文为:Michael A.Nielsen,“Neural Networks and Deep Leaming Determination Press 2015.
英文版及本书采用 Creative Commons Attribution-NonCommercial 3.0 Unported License 许 可协议.
这意味着你可以自由地拷贝、分发、扩展本书内容,但不得出售.
如果你对商业用途感 兴趣,英文版请联系作者,中文版请联系翻译团队.
目录 i 目录 关于作者 iv 关于本书翻译 A 前言 vi 这本书是关于什么的?
vi 关于练习和问题 ix 使用神经网络识别手写数字 1 感知器 2 1.2S型神经元 6 1.3 神经网络的架构 6 1.4 个简单的分类手写数字的网络 11 1.5 使用梯度下降算法进行学习 14 1.6 实现我们的网络来分类数字 20 1.7 迈向深度学习 30 2反向传播算法如何工作 34 2.1热身:神经网络中使用矩阵快速计算输出的方法 34 2.2关于代价函数的两个假设 36 2.3 Hadamard乘积,s0t 37 2.4反向传播的四个基本方程 37 2.5四个基本方程的证明(可选) 41 2.6反向传播算法 42 2.7代码 43 2.8在哪种层面上,反向传播是快速的算法?
45 2.9反向传播:全局观 46 3改进神经网络的学习方法 50 3.1交叉糖代价函数 50
目录 3.1.1 引入交叉代价函数 54 3.1.2 使用交叉烯来对 MNIST 数字进行分类 60 3.1.3 交叉的含义?
源自哪里?
61 3.1.4 柔性最大值 62 3.2过度拟合和规范化 67 3.2.1 规范化 71 3.2.2 为何规范化可以帮助减轻过度拟合 75 3.2.3 规范化的其他技术 78 3.3权重初始化. 85 3.4再看手写识别问题:代码 88 3.5如何选择神经网络的超参数 96 3.6其它技术 105 3.6.1 随机梯度下降的变化形式 105 3.6.2 人工神经元的其他模型 108 3.6.3 有关神经网络的故事 110 4神经网络可以计算任何函数的可视化证明 113 4.1两个预先声明 115 4.2 一个输入和一个输出的普遍性 115 4.3多个输入变量 125 4.4S型神经元的延伸 133 4.5修补阶跃函数 135 4.6结论 138 5深度神经网络为何很难训练 139 5.1 消失的梯度问题 142 5.2什么导致了消失的梯度问题?
深度神经网络中的梯度不稳定性 147 5.3在更加复杂网络中的不稳定梯度 150 5.4其它深度学习的障碍 151 6 深度学习 152 6.1介绍卷积网络 153 6.2 卷积神经网络在实际中的应用 160 6.3 卷积网络的代码 169 6.4图像识别领域中的近期进展 179 6.5其他的深度学习模型 184 6.6神经网络的未来 186 A是否有关于智能的一个简单的算法?
190 B修订历史 195 索引 196
关于作者 MichaelNielsen是一位量子物理学家、科学作家、计算机编程研究 人员.
你可以在其主页michaelnielsen.org/了解更多信息.