新書推薦:

《
善战:孙子兵法中的高维博弈(只要存在竞争与较量,就有“论战胜负”的思维博弈)
》
售價:HK$
85.8

《
傅佩荣讲易经
》
售價:HK$
217.8

《
历史的镜子
》
售價:HK$
61.6

《
我们还是香格里拉的囚徒吗:藏学、国学与语文学(二)
》
售價:HK$
107.8

《
人格类型:我们何以不同(荣格人格类型理论——人格类型是一种人们了解自己、了解人际困扰的方法)
》
售價:HK$
64.9

《
索恩丛书·宗教与资本主义的兴起
》
售價:HK$
141.9

《
遇见 高云
》
售價:HK$
85.8

《
日本首都圈空间结构与协同发展
》
售價:HK$
140.8
|
編輯推薦: |
1.知识系统化,且辅以大量的图示和案例,更方便零基础人阅读。
2.重难点标注清晰,章前有本章概要,配有一个清晰结构图,全书内容一览即知。
3.每章附有编程实践,便于上手实战
4.通过捷径了解深度学习的数学知识!
|
內容簡介: |
本书将深度学习涉及的数学领域缩小到最低限度,以帮助读者在最短的时间内理解深度学习必需的数学知识。全书分为导入篇、理论篇、实践篇和发展篇四部分内容。导入篇系统介绍了一些机器学习的入门知识;理论篇包括微积分、向量和矩阵、多元函数、指数函数、概率论等知识;实践篇介绍了线性回归模型、逻辑回归模型、深度学习模型;发展篇介绍了面向实践的深度学习。本书编程实践中的代码使用Python及Jupyter Notebook编写,简明易懂,便于上手实战。
|
關於作者: |
[日]赤石雅典,1985年东京大学工程学院定量工程系毕业后加入IBM日本。 东京基础研究室研究员,从事数学表达式处理系统的研究与开发。 1993年,主要负责基础结构设计,开放系统的构建和应用程序设计。 2013年,移至智慧城市业务,2016年,移至沃森分公司。 自加入公司以来,他在IT和AI的各个领域都有丰富的经验,并且可以畅谈从IT平台到DB设计,应用程序开发,编程语言,SQL调整,Watson,机器学习的所有内容。
|
目錄:
|
导入篇
第 1章 机器学习入门 2
11 人工智能(AI)与机器学习 2
12 机器学习 3
121 机器学习模型 3
122 学习的方法 4
123 监督学习与回归和分类 4
124 训练步与预测步 5
125 损失函数与梯度下降法 6
13 机器学习模型初步 7
14 本书中采用的机器学习模型 13
15 机器学习与深度学习中数学的必要性 15
16 本书的结构 16
理论篇
第 2章 微分与积分 22
21 函数 22
211 什么是函数 22
212 函数图像 23
22 复合函数与反函数 24
221 复合函数 24
222 反函数 25
23 微分与极限 27
231 微分的定义 27
232 微分与函数值的近似 29
233 切线方程 30
专栏 切线方程与训练步和预测步 31
24 极大值与极小值 32
25 多项式的微分 34
251 x^n 的微分 34
252 微分的线性属性以及多项式的微分 34
253 x^r 的微分 35
专栏 组合与二项式定理 36
26 乘积的微分 37
27 复合函数的微分 38
271 复合函数的微分 38
272 反函数的微分 40
28 商的微分 41
29 积分 42
专栏 积分符号的含义 45
第3章 向量与矩阵 46
31 向量入门 46
311 向量 46
312 向量的表示方法 47
313 向量的分量 48
314 向高维拓展 48
315 向量的分量表示法 49
32 向量的和、差与数乘 49
321 向量的和 49
322 向量的差 50
323 向量的数乘 51
33 长度(模)与距离 52
331 向量的长度(模) 52
332 Σ 符号的意义 54
333 向量间的距离 55
34三角函数 56
341 三角比 56
342 三角函数 56
343 三角函数的图像 57
344 用三角函数表示直角三角形的边 58
35 内积 58
351 基于数值定义内积 58
352 分量形式的内积公式 59
36 余弦相似度 61
361 二维向量之间的角度 61
362 余弦相似度 62
专栏 余弦相似度的应用举例 63
37 矩阵与矩阵运算 63
371 输出节点的内积形式 63
372 输出节点的矩阵积形式 64
第4章 多元函数的微分 67
41 多元函数 67
42 偏微分 69
43 全微分 71
44 全微分与复合函数 73
45 梯度下降法 76
专栏 梯度下降法与局部最优解 82
第5章 指数函数与对数函数 83
51 指数函数 83
511 连乘的定义与法则 83
512 连乘的拓展 84
513 向函数拓展 86
52 对数函数 88
专栏 对数函数包含的意义 92
53 对数函数的微分 93
专栏 用 Python 计算自然常数 95
54 指数函数的微分 96
专栏 以自然常数 e 为底的指数函数的写法 97
55 Sigmoid 函数 98
56 Softmax 函数 100
专栏 Sigmoid 函数与 Softmax 函数的关系 103
第6章 概率与统计 104
61 概率函数与概率分布 104
62 概率密度函数与概率分布函数 107
专栏 正态分布函数与 Sigmoid 函数 109
63 似然函数与最大似然估计 110
专栏 为何似然函数的极值不是极小而是极大 113
实践篇
第7章 线性回归模型 116
71 损失函数的偏微分与梯度下降法 116
72 例题的问题设定 117
73 训练数据的记法 118
74 梯度下降法的思路 119
75 预测模型的构造 120
76 损失函数的构造 122
77 计算损失函数的微分 122
78 梯度下降法的应用 124
79 编程实践 126
专栏 使用 NumPy 编程的技术 130
710 多元回归模型的扩展 134
专栏 学习率·循环迭代次数的调整方法 138
第8章 逻辑回归模型(二分类) 140
81 例题的问题设定 140
82 回归模型与分类模型的区别 142
83 预测模型的分析 143
专栏 用概率表达预测值大有深意 147
84 损失函数(交叉熵函数) 147
85 计算损失函数的微分 151
86 梯度下降法的应用 154
87 编程实践 155
专栏 scikit-learn 与模块的比较 163
专栏 球迷国王的烦恼与交叉熵 163
第9章 逻辑回归模型(多分类) 166
91 例题的问题设定 166
92 模型的基础概念 168
93 权重矩阵 169
94 Softmax 函数 170
95 损失函数 172
96 计算损失函数的微分 173
97 梯度下降法的应用 177
98 编程实践 178
专栏 NumPy 中的矩阵计算 180
第 10章 深度学习模型 189
101 例题的问题设定 189
102 模型结构与预测函数 190
103 损失函数 193
104 计算损失函数的微分 193
105 误差逆传播 197
106 梯度下降法的应用 200
107 编程实践(1) 203
108 编程实践(2) 210
109 编程实践(3) 211
1010 编程实践(4) 214
发展篇
第 11章 面向实践的深度学习 218
111 使用框架 218
112 CNN 221
113 RNN 与 LSTM 223
114 数值微分 224
115 高级训练法 226
116 避免过拟合 228
117 学习的单位 231
118 矩阵的初始化 232
119 更上一层楼 233
附录 Jupyter Notebook 的安装方法 234
A1 在 Windows 环境中安装 Jupyter Notebook 234
A2 在 macOS 环境中安装 Jupyter Notebook 238
|
|