用朴素贝叶斯分类器解决佩戴隐形眼镜问题1问题描述

2022-12-18 18:21:55   第一文档网     [ 字体: ] [ 阅读: ] [ 文档下载 ]
说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。下载word有问题请添加QQ:admin处理,感谢您的支持与谅解。点击这里给我发消息

#第一文档网# 导语】以下是®第一文档网的小编为您整理的《用朴素贝叶斯分类器解决佩戴隐形眼镜问题1问题描述》,欢迎阅读!
叶斯,问题,隐形眼镜,佩戴,朴素

用朴素贝叶斯分类器解决佩戴隐形眼镜问题

1 问题描述

该实验采用机器学习方法中的朴素贝叶斯算法用于信息分类,问题的背景是根据一个人的年龄,视力缺陷,散光和泪腺分泌情况决定其是否可佩戴隐形眼镜。



1.1 待解决问题的解释

对于是否可配戴隐形眼镜,可把人们分为3类: 1:适于配戴硬性隐形眼镜; 2:适于配戴软性隐形眼镜; 3:不适于配戴隐形眼镜

为了判断一个人是否适合配戴隐形眼镜,需要检查以下4种属性: 属性a:配戴者年龄,取值a=<年青、早期老视、老视> 属性b:配戴者的视力缺陷,取值b=<近视、远视> 属性c:配戴者是否有散光,取值c=<是、否>

属性d:配戴者泪腺分泌情况,取值d=<少、正常>

上述属性和人群分类一律按顺序用数字1, 2…表示,可以假设根据属性abcd有如下表的分类(纯属虚拟)

1.2 问题的形式化描述(可选)

初始状态:某个测试例子集包括如下属性

<配戴者年龄、配戴者的视力缺陷、配戴者是否有散光、配戴者泪腺分泌情况> 后继函数:根据先验概率计算后继概率

目标测试:输出<适于配戴硬性隐形眼镜,适于配戴软性隐形眼镜,不适于配戴隐形眼镜> 路径耗散:可以转化为计算该方法的分类正确率

1.3 朴素贝叶斯介绍(原理) 机器学习有三种类型:

有监督(有指导)学习从其输入/输出的实例中学习一个函数

无监督(无指导)学习在未提供明确的输出值情况下,学习输入的模式,要在概率推

理系统的上下文中研究无监督学习

化学从强化物中学习,而不是根据指导进行学习 学习结果的知识表示有三种形式:

逻辑公式(学到的规则) 贝叶斯网络(学到的概率描述)

线性加权函数(作为学习得到的启发函数)

在本次实验中,采用了贝叶斯学习,这是一种有指导的学习方法。贝叶斯学习根据给定


数据计算各种假设的可能性,即根据概率为每个假设赋予相应的权值,然后在此基础上进行预测。

贝叶斯学习的特性:



观察到的每个训练样例可以增量地降低或升高某假设的估计概率。 先验知识可以与观察数据一起决定假设的最终概率。 贝叶斯方法可以运行假设做出不确定性的预测。

新的实例分类可由多个假设一起做出预测,用它们的概率来加权。

即使在贝叶斯方法计算复杂度较高时,其仍可以作为一个最优的决策标准衡量其它方法。

在实践中,贝叶斯方法的难度在于,它们需要概率的初始知识。另一个实际困难在于,一般情况下确定贝叶斯最优假设的计算代价很大(可以采用朴素贝叶斯方法作为替代)

2 算法介绍



2.1 朴素贝叶斯算法的一般介绍 Naïve Bayes Classifier是一种实用性很高的贝叶斯学习器 / 某些应用中性能与神经网络和决策树相当(Mitchell)在其学习任务中,实例x由属性值的合取表示,目标函数(分类)f(x)V(有限集合)输入为关于目标函数的训练样例和新实例的属性值z=an>,输出=z分类按照极大后验概率取值的原则,其输出目标值应满足最大后验概率公式

朴素贝叶斯分类器基于一个简单的假设—在给定目标值时属性值之间相互条件独立,即 P(a1,a2,an|vj)=i P(ai|vj)代入到前式当中得贝叶斯分类器输出函数vNB=arg maxvjV P(vj)i P(ai|vj)估计每个P(ai|vj)所需数据量比估计P(a1,a2,an|vj)要少得多 基于训练数据的频率,可得P(vj)P(ai|vj)

在分类(classification)问题中,常常需要把一个事物分到某个类别。一个事物具有很多属性,把它的众多属性看做一个向量,即x=(x1,x2,x3,,xn),用x这个向量来代表这个事物。类别也是有很多种,用集合Y={y1,y2,ym}表示。如果x属于y1类别,就可以给x打上y1标签,意思是说x属于y1类别。这就是所谓的分类(Classification)

x的集合记为X,称为属性集。一般XY的关系是不确定的,你只能在某种程度上说x多大可能性属于类y1,比如说x80%的可能性属于类y1,这时可以把XY看做是随机变量,P(Y|X)称为Y的后验概率posterior probability,与之相对的,P(Y)称为Y的先验概率prior probability[2]。在训练阶段,我们要根据从训练数据中收集的信息,对XY的每一种组合学习后验概率P(Y|X)分类时,来了一个实例x在刚才训练得到的一堆后验概率中找出所有的P(Y|x) 其中最大的那个y即为x所属分类。根据贝叶斯公式,后验概率为






本文来源:https://www.dywdw.cn/ddc009a1d3d233d4b14e852458fb770bf78a3b2f.html

相关推荐
推荐阅读