CS229 | Machine Learning Stanford University 系列内容 Awesome AI Courses Notes Cheat Sheets @ ShowMeAI
第四部分 机器学习技巧和经验
/ Machine Learning Tips and Tricks
- 1 -
第四部分 机器学习技巧和经验
/ Machine Learning Tips and Tricks
翻译&校正 | 韩信子@
ShowMeAI
编辑 | 南乔@
ShowMeAI
原文作者 |
https://stanford.edu/~shervine
本节原文超链
[1]度量 / Metrics
1.1 分类评价指标 Classification metrics
在二分类问题中,下面这些主要度量标准对于评估模型的性能非常重要。
░▐ 混淆矩阵 Confusion matrix
混淆矩阵可以用来评估模型的整体性能情况。定义如下:
预测类别
+
-
+
TPTrue Positives 真阳性
FNFalse Negatives Type II error 假阴性
-
FPFalse Positives Type I error 假阳性
TNTrue Negatives 真阴性
░▐ 主要度量标准
Main metrics
下标总结了评估分类模型的常用度量标准:
性能度量
说明
Accuracy
模型总体性能
Precision
预测为正样本的准确度
Recall Sensitivity
真正样本的覆盖度
Specificity
真负样本的覆盖度
F1 score
混合度量,对于不平衡类别非常有效
░▐ 受试者工作曲线 ROC
线 receiver operating curve ROC True Positive
RateTPR)为纵轴,以假阳率(False Positive RateFPR横轴,并进过调整阈值绘
制而成。下表汇总了坐标轴的度量标准:
性能度量
公式
等价形式
True Positive Rate TPR
TP
TP+FN
Recall sensitivity
False Positive Rate FPR
FP
TN+FP
1-specificity
░▐ AUC
受试者工作曲线的下的部分
The area under the receiving operating curve
AUC
/ AUROC
),即
ROC
曲线下的部分。如下图所示:
1.2 回归评价指标 Regression metrics
░▐ 基本性能度量 Basic metrics
给定一个回归模型
,下面的度量标准通常用来评估模型的性能:
全部平方和
解释平方和
残差平方和
SS
tot
=
i=1
m
y
i
y
2
SS
reg
=
i=1
m
f x
i
y
2
SS
res
=
i=1
m
y
i
f x
i
2
░▐ 确定性系数
Coefficient of determination
确定性系数(记作
2
2
,用以衡量模型复现观测结果的能力,定义如下:
2
=1
SS
res
SS
tot
CS229 | Machine Learning Stanford University 系列内容 Awesome AI Courses Notes Cheat Sheets @ ShowMeAI
第四部分 机器学习技巧和经验
/ Machine Learning Tips and Tricks
- 2 -
░▐ 主要度量标准
Main metrics
以下度量标准常用于评估回归模型的性能(考虑到了变量的数量
):
Mallow's Cp
AIC
BIC
SS
res
+2 +1
2
2[ +2 −log ]
log +2 −2log
备注:
L
代表似然,
σ
2
代表方差。
[2]模型选择 / Model Selection
░▐ 词汇
Vocabulary
在选择模型时,将数据分为以下
3
个不同的部分:
训练集
Training set
验证集
Validation set
测试集
Testing set
用于模型训练
通常为数据集的 80%
用于模型评估
通常为数据集的 20%
又叫做留出集或者开发集
用于模型预测
使用未知数据
选定模型,在整个数据集上进行训练,并在测试集
(
未见过的数据
)
上进行测试。如图:
░▐ 交叉验证 Cross-validation
交叉验证(Cross-validation),是一种不必特别依赖于初始训练集的模型选择方法。
下表汇总了几种不同的方式:
k-fold
Leave-p-out
1
个子集上训练
在剩余的一个子集中评估
通常
= 5
10
个子集上训练
在剩余的
个子集评估模
=
1
时又叫做留一
最常择方
折交训练
个子
1
个子
上训练模型,在剩余的一个子集上评估模型,用这种划分方式重复训练
次。
交叉验证损失是
折交叉验证的损失均值。
░▐ 正则化 Regularization
正则化方法可以解决高方差问题,避免模型对于训练数据产生过拟合。
下表汇总了常用的正则化方法:
LASSO
Ridge
Elastic Net
将系数收缩为 0
有利于变量选
使系数更小
在变量选择和小系数之间进行权衡
...+
||
1
...+||
2
2
...+λ[ 1α |θ|
1
+α|
2
2
]
λα∈ 0,1
[3]诊断 / Diagnostics
░▐ 偏差 Bias
模型的偏差,表示模型预测值和真实值之间的差距。
░▐ 方差
Variance
模型的方差,表示给定数据点的模型预测结果的波动程度
CS229 | Machine Learning Stanford University 系列内容 Awesome AI Courses Notes Cheat Sheets @ ShowMeAI
第四部分 机器学习技巧和经验
/ Machine Learning Tips and Tricks
- 3 -
░▐ 偏差
/
方差权衡
Bias/variance tradeoff
模型越简单,偏差越高;模型越复杂,方差越高。
欠拟合
Underfitting
模型状态正
Just right
过拟合
Overfitting
症状
高训练误差
训练误差接近于测试误差
高偏差
训练误差略低于测试误差
极低训练误差
训练误差远低于测试误差
高方差
回归图
分类图
深度学习插
可能的
补救措施
模型复杂性
添加更多特征
训练更长时间
//
实施正则化
获得更多数据
░▐ 错误分析
Error analysis
分析当前模型和完美模型之间性能差异的根本原因。
░▐ 烧蚀分析 Ablative analysis
可以分析当前和基线模型(baseline model)之间性能差异的根本原因。
CS229 | Machine Learning Stanford University 系列内容 Awesome AI Courses Notes Cheat Sheets @ ShowMeAI
第四部分 机器学习技巧和经验
/ Machine Learning Tips and Tricks
- 4 -
Awesome AI Courses Notes Cheat Sheets
Machine Learning
CS229
Deep Learning
CS230
Natural Language Processing
CS224n
Computer Vision
CS231n
Deep Reinforcement Learning
CS285
Neural Networks for NLP
CS11-747
DL for Self-Driving Cars
6.S094
...
Stanford
Stanford
Stanford
Stanford
UC Berkeley
CMU
MIT
...
ShowMeAI 系列盖最知名 TOP20+ AI ,旨读者
学习者提供一整套高品质中文速查表,可以点击【这里】查看。
Stanford University Machine Learning CS229 Deep Learning
CS230)课程,是本系列的第一批产出。
速查 Shervine Amidi
结整理。原速查表为英文,可点击【这里】查看
ShowMeAI
对内容进行
了翻译、校对与编辑排版,整理为当前的中文版本。
有任何建议和反馈,也欢迎通过下方渠道和我们联络 (*3)
CS229 | Machine Learning @ Stanford University
CS230 | Deep Learning @ Stanford University
监督学习
Supervised Learning
无监督学习
Unsupervised Learning
深度学习
Deep Learning
机器学习技巧和经验
Tips and Tricks
卷积神经网
CNN
循环神经网
RNN
深度学习技巧与建议
Tips and Tricks
中文速查表链接
中文速查表链接
中文速查表链接
中文速查表链接
中文速查表链接
中文速查表链接
中文速查表链接
概率统计
Probabilities /Statistics
线性代数与微积分
Linear Algebra and Calculus
GitHub
ShowMeAI
https://github.com/
ShowMeAI-Hub/
ShowMeAI 研究中心
扫码回复
速查表
下载
最新
全套资料
中文速查表链接
中文速查表链接