CS229 | Machine Learning Stanford University 系列内容 Awesome AI Courses Notes Cheat Sheets @ ShowMeAI
第三部分 深度学习
/ Deep Learning
- 1 -
第三部分 深度学习
/ Deep Learning
翻译&校正 | 韩信子@
ShowMeAI
编辑 | 南乔@
ShowMeAI
原文作者 |
https://stanford.edu/~shervine
本节原文超链
[1]神经网络 / Neural Networks
神经网络是一类按层结构搭建的模型,常用的包括卷积神经网络递归神经网络
░▐ 架构
Architecture
描述神经网络架构的常用词汇见下图:
备注:lnput layer[输入层] Hidden layer[隐藏层] Output layer[输出层]
已知
i
是网络的第
i
th
层,
j
是网络的第
j
th
层,有:
=
+
其中,
w
表示权重,
b
表示偏差,
z
表示输出。
░▐ 激活函数 Activation function
激活函数被用在隐含单元后,向模型引入非线性复杂度。下表总结了常见激活函数:
Sigmoid
双曲正切函(Tanh)
ReLU
Leaky ReLU
g z =
1
1+e
−z
g
z
=
e
z
e
−z
e
z
+e
−z
g
z
=max
0,z
g
z
=max
ϵz,z ϵ1
░▐ 交叉熵损失
Cross-entropy loss
神经网络中,交叉熵损失
,
通常定义如下:
, =−[log  + 1 log 1 ]
░▐ 学习率
Learning rate
学习
),也可
变。现阶段最常用的方法 Adam,就是自适应学习率。
░▐ 反向传播
Backpropagation
反向传播的过程,是根据网络实际输出和标准答案计算损失函数,进而更新神经网络中
的权重。权重
的导数由链式法则计算而来:
∂L z,y
∂w
=
∂L z,y
∂a
×
∂a
∂z
×
∂z
∂w
权重
的更新规则如下:
wwα
∂L
z,y
∂w
░▐ 更新权重 Updating weights
在神经网络中,权重按照下方步骤进行更新:
第一步
第二步
第三步
第四步
取一个批次(batch)
训练数据
通过前向传播
来得到相关损
通过反向传播损失
来得到梯度
利用梯度
更新网络的权
░▐ 随机失活 Dropout
随机失活是一种通过丢弃神经网络单元来防止训练数据过拟合的技术。实际应用中,神
经元以概率
被丢弃/置为 0(或以概率
1
被保留)。
CS229 | Machine Learning Stanford University 系列内容 Awesome AI Courses Notes Cheat Sheets @ ShowMeAI
第三部分 深度学习
/ Deep Learning
- 2 -
[2]卷积神经网络 / Convolutional Neural Networks
░▐ 卷积神经网络要求 Convolutional layer requirement
为输入图寸,
为卷积层元尺
为零填充小,么给定的
图像能够容纳的神经元数目
为:
N=
WF+2P
S
+1
░▐ 批量规范化 Batch normalization
它是超参数
,
标准化样本批 {
} 的一个步骤。记
为当前批样本的均值,
2
为当前
批样本的方差,则有:
x
i
γ
x
i
μ
B
σ
B
2
+ϵ
+β
备注:通常应用于全连接层/卷积层之后、在非线性层之前,目的是允许更高的学习
率、减少对初始化的强依赖。
[3]递归神经网络 / Recurrent Neural Networks, RNN
░▐ 门控的种类 Types of gates
在一个典型的递归神经网络中,有多种门控结构:
输入门
忘记门
门控
输出门
信息要不要写入单元?
要不要清空单元信息?
在单元写入多少信息?
从单元输出多少信息?
░▐ 长短时记忆网络 LSTM
长短时记忆络(long short-term memoryLSTM RNN 的一种,它可以通过增
忘记门来避免梯度消失问题。
[4]强化学习和控制 / Reinforcement Learning and Control
强化学习的目标,是让代理去学习如何在环境中进化。
░▐ 马尔可夫决策过程
Markov decision processes
( Markov decision processes
MDP)
5
, , {P
sa
}, γ, R
1)
是状态的集合
2)
是动作的集合
3)
{

}
是对于
s
a
的状态转换概率
4)
∈ ,
是折扣系数
5)
:×
or
:
是算法希望最大化的回报函数
░▐ 策略 Policy
策略
函数,将状态
映射到动作
:
备注:对于某指定状态
s
,完成了动作
a = π s
,被认为执行了一个指定的策略
π
░▐ 价值函数
Value function
对于一个指定的策略
和指定的状态
,价值函数 n
定义如下:
V
π
s =E[R s
0
+γR s
1
+γ
2
R s
2
+...|s
0
=s,π]
░▐ 贝尔曼方程 Bellman equation
最优贝尔曼方程描述了最优策略
的价值函数
V
π
s =R s +max
a∈
γ
s'∈S
P
sa
s'
V
π
s'
备注:对于某特定状态
s
,其最优策略
*
是:
π
s =
argmax
a∈
s'∈
P
sa
s' V
s'
CS229 | Machine Learning Stanford University 系列内容 Awesome AI Courses Notes Cheat Sheets @ ShowMeAI
第三部分 深度学习
/ Deep Learning
░▐ 值迭代算法
Value iteration algorithm
值迭代算法分为两步:
1
)首先初始化值:
V
0
s =0
2)通过之前的值进行迭代:
V
i+1
s =R s +max
a∈
s'∈
γ P
sa
s' V
i
s'
░▐ 极大似然估计 Maximum likelihood estimate
状态转移概率的极大似然估计,定义如下:
P
sa
s' =
#状态 s下进行动作 a并且进入状态 s’的次数
#状态 s下进行动作 a的次数
░▐
Q-
学习
Q-learning
学习是一种
的无模型(model-free)估计,定义如下:
,
,
+ ,,' +max
'
',' − ,
CS229 | Machine Learning Stanford University 系列内容 Awesome AI Courses Notes Cheat Sheets @ ShowMeAI
第三部分 深度学习
/ Deep Learning
- 4 -
Awesome AI Courses Notes Cheat Sheets
Machine Learning
CS229
Deep Learning
CS230
Natural Language Processing
CS224n
Computer Vision
CS231n
Deep Reinforcement Learning
CS285
Neural Networks for NLP
CS11-747
DL for Self-Driving Cars
6.S094
...
Stanford
Stanford
Stanford
Stanford
UC Berkeley
CMU
MIT
...
ShowMeAI 最具 TOP20+AI 课程旨在
学习者提供一整套高品质中文速查表,可以点击【这里】查看。
Stanford University Machine Learning CS229 Deep Learning
CS230)课程,是本系列的第一批产出。
Shervine Amidi
结整理。原速查表为英文,可点击【这里】查
ShowMeAI
对内容进行
了翻译、校对与编辑排版,整理为当前的中文版本。
有任何建议和反馈,也欢迎通过下方渠道和我们联络 (*3)
CS229 | Machine Learning @ Stanford University
CS230 | Deep Learning @ Stanford University
监督学习
Supervised Learning
无监督学习
Unsupervised Learning
深度学习
Deep Learning
机器学习技巧和经验
Tips and Tricks
卷积神经网
CNN
循环神经网
RNN
深度学习技巧与建议
Tips and Tricks
中文速查表链接
中文速查表链接
中文速查表链接
中文速查表链接
中文速查表链接
中文速查表链接
中文速查表链接
概率统计
Probabilities /Statistics
线性代数与微积分
Linear Algebra and Calculus
GitHub
ShowMeAI
https://github.com/
ShowMeAI-Hub/
ShowMeAI 研究中心
扫码回复
速查表
下载
最新
全套资料
中文速查表链接
中文速查表链接