博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
NNPR-Chap1 统计模式识别(9)决策边界
阅读量:4457 次
发布时间:2019-06-08

本文共 590 字,大约阅读时间需要 1 分钟。

当满足下面条件时将特征向量x付给类Ck时错分概率最小

                            (1)

由于边缘概率P(x)与类无关,因此上式转为

                      (2)

上面的操作就好像将特征空间划分成许多决策区域 ,当特性向量录入区域 时,则将其非给类 。这些区域无需是连续的。这些区域间的边界就是决策边界,或称为决策面。

 

下面通过单维特征空间两类问题来说明如何确定最佳决策面,示意图如下

                        图.1

错分发生在将一个新数据归为C1,而其实际类别为C2(对应上图竖线右边黑色部分,以及下式右边第一项);将一个新数据归为C2,而其实际类别为C1(对应上图竖线作边黑色部分,下式右边第二项),其发生概率为:

                           (3)

由图1可明显看出,当决策面(对应黑色竖线)位于两概率密度曲线交汇处时,黑色部分面积最小,也就是错分概率最小。此时采取的决策准则恰恰就是本文开头描述的将特征向量赋给后验概率最大的那个类。

 

1.判决函数(Distriminant funtions)

分类问题也可进一步抽象为为通过判决函数集合 ,将输入向量赋给类Ck,如果

                      

前面介绍的方法只不过是 时的特例。

 

可见,y(x)的大小唯一决定类的归属。同时, 可替换为 ,只要 是单调函数,此时决策面不会变化。例如,可采用对数变化,保证不影响结果。

         

转载于:https://www.cnblogs.com/pegasus/archive/2010/11/18/1880637.html

你可能感兴趣的文章
[myeclipse]@override报错问题
查看>>
자주 쓰이는 정규표현식
查看>>
超简单的listview单选模式SingleMode(自定义listview item)
查看>>
vue-11-路由嵌套-参数传递-路由高亮
查看>>
HDU 1199 - Color the Ball 离散化
查看>>
[SCOI2005]骑士精神
查看>>
Hibernate原理解析-Hibernate中实体的状态
查看>>
六时车主 App 隐私政策
查看>>
C语言常见问题 如何用Visual Studio编写C语言程序测试
查看>>
Web用户的身份验证及WebApi权限验证流程的设计和实现
查看>>
hdu 2098 分拆素数和
查看>>
[ONTAK2010]Peaks kruskal重构树,主席树
查看>>
ECMAScript6-let与const命令详解
查看>>
iOS 使用系统相机、相册显示中文
查看>>
什么是敏捷设计
查看>>
SCSS的基本操作
查看>>
"安装程序无法定位现有系统分区" 问题解决
查看>>
.NET中栈和堆的比较
查看>>
【莫队】bzoj 3781,bzoj 2038,bzoj 3289
查看>>
如何优化limit
查看>>