- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2020/5/21
.
14
基于距离的分类方法的直观解释
Baidu Nhomakorabea
(a)类定义 (b)待分类样例 (c)分类结果
2020/5/21
.
15
距离分类例题
C1=(3,3,4,2), C2=(8,5,-1,-7), C3=(-5,-7,6,10); 请用基于距离的算法给以下样本分类: (5,5,0,0) (5,5,-5,-5) (-5,-5,5,5)
更平衡的评估标准包括马修斯相关性系数(Matthews correlation coefficient)和ROC曲线。
马修斯相关性系数定义为
2020/5/21
.
10
分类模型的评估
ROC曲线通过描述真阳性率(TPR)和假阳性率(FPR)来实 现,其中TPR=TP/(TP+FN), FPR=FP/(FP+TN)。
第三章 分类方法
分类的基本概念与步骤 基于距离的分类算法 决策树分类方法 贝叶斯分类 实值预测 与分类有关的问题
内容提要
2020/5/21
.
1
分类的流程
根据现有的知识,我们得到了一些关于爬行动物和鸟类的信息, 我们能否对新发现的物种,比如动物A,动物B进行分类?
2020/5/21
.
2
定义4-2 给定一个数据库 D={t1,t2,…,tn}和一 组类C={C1,…,Cm}。假定每个元组包括一些数 值型的属性值:ti={ti1,ti2,…,tik},每个类也包 含数值性属性值:Cj={Cj1,Cj2,…,Cjk},则分 类问题是要分配每个ti到满足如下条件的类Cj:
sim(ti,Cj)>=sim(ti,Cl) ,Cl∈C,Cl≠Cj,
其中sim(ti,Cj)被称为相似性。
在实际的计算中往往用距离来表征,距离越近, 相似性越大,距离越远,相似性越小。
距离的计算方法有多种,最常用的是通过计算每 个类的中心来完成。
2020/5/21
.
13
基于距离的分类算法的一般性描述
算法 4-1 基于距离的分类算法
输入:每个类的中心C1,…,Cm;待分类的元组t。 输出:输出类别c。
(1)dist=∞;//距离初始化
(2)FOR i:=1 to m DO
(3) (4)
IF dis(ci,t)<dist THEN BEGIN c← i;
(5) (6)
dist←dist(ci,t);
END.
算法 4-1通过对每个样本和各个类的中心来比较, 从而可以找出他的最近的类中心,得到确定的类 别标记。
数据集包含23只动物,其中18只预测为正确的分类,准确率 为18/23
2020/5/21
.
9
分类模型的评估
对于非平衡(unblanced)的数据集,以上指标并不能很好的 评估预测结果。
非平衡的数据集是指阳性数据在整个数据集中的比例很 小。比如,数据集包含10只爬行动物,990只爬行动物, 此时,是否预测正确爬行动物对准确率影响不大。
2020/5/21
.
16
K-近邻分类算法
特异度(Specificity): TN/(TN+FP)
数据集有10只非爬行动物,其中8只被预测为非爬行动物,特 异度为8/10
精度(Precision):
TP/(TP+FP)
分类器预测了12只动物为爬行动物,其中10只确实是爬行动 物,精度为10/12
准确率(Accuracy): (TP+TN)/(TP+TN+FN+FP)
预测是否正确 预测结果 比如预测未知动物是鸟类还是爬行动物,阳性代表爬
行动物,阴性代表非爬行动物,请大家阐述 TP=10, TN=8,FN=3,FP=2是什么意义
2020/5/21
.
8
分类模型的评估
灵敏度(Sensitivity): TP/(TP+FN)
也称为查全率(Recall)
数据集共有13只爬行动物,其中10只被正确预测为爬行动物, 灵敏度为10/13
f(xi1 ,xi2 ,xi3 ,..x.i)n. .y.i ,
步骤三:建立分类模型或分类器(分类)。
分类器通常可以看作一个函数,它把特征映射到类的空间 上
2020/5/21
.
5
如何避免过度训练
分类也称为有监督学习(supervised learning), 与之相对于的是无监督学习(unsupervised learning),比如聚类。
大部分分类器都输出一个实数值(可以看作概率),通过变 换阈值可以得到多组TPR与FPR的值。
2020/5/21
.
11
第三章 分类方法
分类的基本概念与步骤 基于距离的分类算法 决策树分类方法 贝叶斯分类 实值预测 与分类有关的问题
内容提要
2020/5/21
.
12
基于距离的分类算法的思路
应建立训练集(training set)和测试集(test set)。
训练集应用于建立分类模型 测试集应用于评估分类模型
K折叠交叉验证(K-fold cross validation):将初 始采样分割成K个子样本(S1,S2,...,Sk),取K-1个 做训练集,另外一个做测试集。交叉验证重复K 次,每个子样本都作为测试集一次,平均K次的 结果,最终得到一个单一估测。
分类与聚类的最大区别在于,分类数据中的一 部分的类别是已知的,而聚类数据的类别未知。
建立分类模型需要学习一部分已知数据,如果 训练时间过长,或者预测模型参数太多而样本 较少,将导致过度训练(overfitting)。
2020/5/21
.
6
如何避免过度训练
避免过度训练最重要一点是,模型的参数量应 远小于样本的数量。
2020/5/21
.
7
分类模型的评估
真阳性(True Positive): 实际为阳性 预测为阳性 真阴性(True Negative):实际为阴性 预测为阴性 假阳性(False Positive): 实际为阴性 预测为阳性 假阴性(False Negative):实际为阳性 预测为阴性
分类的流程
步骤一:将样本转化为等维的数据特征(特征提取)。
所有样本必须具有相同数量的特征 兼顾特征的全面性和独立性
2020/5/21
.
3
分类的流程
步骤二:选择与类别相关的特征(特征选择)。
比如,绿色代表与类别非常相关,黑色代表部分相关,灰 色代表完全无关
2020/5/21
.
4
分类的流程