Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
d2l-zh
提交
a85b217a
D
d2l-zh
项目概览
OpenDocCN
/
d2l-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
d2l-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
a85b217a
编写于
6月 22, 2018
作者:
A
Aston Zhang
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add math
上级
f7f08776
变更
5
隐藏空白更改
内联
并排
Showing
5 changed file
with
36 addition
and
20 deletion
+36
-20
chapter_appendix/index.md
chapter_appendix/index.md
+0
-1
chapter_appendix/math.md
chapter_appendix/math.md
+32
-5
chapter_appendix/python.md
chapter_appendix/python.md
+0
-12
chapter_introduction/how-to-use.md
chapter_introduction/how-to-use.md
+3
-1
chapter_recurrent-neural-networks/lm.md
chapter_recurrent-neural-networks/lm.md
+1
-1
未找到文件。
chapter_appendix/index.md
浏览文件 @
a85b217a
...
...
@@ -6,7 +6,6 @@
:maxdepth: 2
math
python
jupyter
aws
buy-gpu
...
...
chapter_appendix/math.md
浏览文件 @
a85b217a
# 数学基础
本节总结了本书中涉及到的有关线性代数、微分和概率
统计的基础知识
。
本节总结了本书中涉及到的有关线性代数、微分和概率
的基础知识。为避免赘述本书未涉及的数学背景知识,本节中的少数定义稍有简化
。
## 线性代数
...
...
@@ -289,25 +289,52 @@ $$\frac{\partial^2 f}{\partial x_i \partial x_j} = \frac{\partial }{\partial x_j
## 概率
和统计
## 概率
最后,我们简要介绍条件概率、期望和均匀分布。
###
全
概率
###
条件
概率
假设事件$A$和事件$B$的概率分别为$
\m
athbb{P}(A)$和$
\m
athbb{P}(B)$,两个事件同时发生的概率记作$
\m
athbb{P}(A
\c
ap B)$或$
\m
athbb{P}(A, B)$。给定事件$B$,事件$A$的条件概率
$$
\m
athbb{P}(A
\m
id B) =
\f
rac{
\m
athbb{P}(A
\c
ap B)}{
\m
athbb{P}(B)}.$$
也就是说,
$$
\m
athbb{P}(A
\c
ap B) =
\m
athbb{P}(B)
\m
athbb{P}(A
\m
id B) =
\m
athbb{P}(A)
\m
athbb{P}(B
\m
id A).$$
当满足
$$
\m
athbb{P}(A
\c
ap B) =
\m
athbb{P}(A)
\m
athbb{P}(B)$$
时,事件$A$和事件$B$相互独立。
### 条件概率
### 期望
### 最大似然估计
随机变量$X$的期望(或平均值)
$$
\m
athbb{E}(X) =
\s
um_{x} x
\m
athbb{P}(X = x).$$
### 均匀分布
假设随机变量$X$服从$[a, b]$上的均匀分布,即$X
\s
im U(a, b)$。随机变量$X$取$a$和$b$之间任意一个数的概率相等。
## 小结
*
本节总结了本书中涉及到的有关线性代数、微分和概率的基础知识。
## 练习
*
求函数$f(
\b
oldsymbol{x}) = 3x_1^2 + 5e^{x_2}$的梯度。
## 扫码直达[讨论区](https://discuss.gluon.ai/t/topic/6966)
![](
../img/qr_math.svg
)
chapter_appendix/python.md
已删除
100644 → 0
浏览文件 @
f7f08776
# Python编程基础
TODO(@astonzhang)
## 小结
## 练习
## 扫码直达[讨论区](https://discuss.gluon.ai/t/topic/6967)
![](
../img/qr_python.svg
)
chapter_introduction/how-to-use.md
浏览文件 @
a85b217a
...
...
@@ -6,7 +6,9 @@
## 面向的读者
本书总体上面向大学生、工程师和研究人员。本书对于深度学习技术与应用的阐述涉及了数学和编程。如果你希望理解书中的数学描述,需要了解基础的微分、线性代数和概率统计。如果你希望读懂书中的代码,需要了解基础的Python编程。如果你只对书中的数学部分或编程部分感兴趣,也可以忽略另一部分。附录提供了本书所需要的数学和Python编程基础,供有需要的读者参考。
本书总体上面向大学生、工程师和研究人员。本书对于深度学习技术与应用的阐述涉及了数学和编程。如果你希望理解深度学习背后的数学原理,需要了解基础的线性代数、微分和概率。如果你希望读懂书中的代码,需要了解基础的Python编程。如果你只对书中的数学部分或编程部分感兴趣,也可以忽略另一部分。
附录提供了本书所涉及的数学知识,供有需要的读者选择参考。如果你对Python编程不熟悉,我们建议你先学习一些有关Python编程的教程,例如中文教程 http://www.runoob.com/python/python-tutorial.html 或英文教程 http://learnpython.org/ 。
## 内容和结构
...
...
chapter_recurrent-neural-networks/lm.md
浏览文件 @
a85b217a
...
...
@@ -11,7 +11,7 @@ $$\mathbb{P}(w_1, w_2, \ldots, w_T).$$
## 语言模型的计算
既然语言模型很有用,那该如何计算它呢?
根据全概率公式
,我们有
既然语言模型很有用,那该如何计算它呢?
假设序列$w_1, w_2,
\l
dots, w_T$依次生成
,我们有
$$
\m
athbb{P}(w_1, w_2,
\l
dots, w_T) =
\p
rod_{t=1}^T
\m
athbb{P}(w_t
\m
id w_1,
\l
dots, w_{t-1}) .$$
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录