基于贝叶斯分类器的网络有效评论的判断
朴素贝叶斯分类器是一种简单高效的分类算法,在数据挖掘和模式识别中应用广泛,但是朴素贝叶斯假设在现实中往往不能成立,或多或少都影响了分类的效果。很多分类方法是通过适当放松朴素贝叶斯假设,提高朴素贝叶斯分类器的分类精度,结果通常会导致计算代价的大大提高[1]。(1)详细研究了朴素贝叶斯分类器及各种改进模型,通过探讨如何更好的学习朴素贝叶斯分类器,提出了一种基于粗糙集的特征加权朴素贝叶斯分类器,从而提高了朴素贝叶斯分类器的分类性能。(2)提出一种基于粗糙集的特征加权朴素贝叶斯算法(FWNB) [2]。加权参数直接从属性的粗糙下近似集导出,其可看作是计算每种类别的后验概率时,该属性对此计算的影响程度。将FWNB与朴素贝叶斯分类器(Naive Bayesian classifier, NB)、贝叶斯网(Bayes Networks)和NBTree分类器通过数值实验比较。为了更充分地验证FWNB的有效性[3]。
贝叶斯分类技术在众多分类技术中占有重要地位,也属于统计学分类的范畴,是一种非规则的分类方法,贝叶斯分类技术通过对已分类的样本子集进行训练,学习归纳出分类函数(对离散变量的预测称作分类,对连续变量的分类称为回归),利用训练得到的分类器实现对未分类数据的分类。通过对比分析不同的分类算法,发现朴素贝叶斯分类算法(Naive Bayes) [4],一种简单的贝叶斯分类算法,其应用效果比神经网络分类算法和判定树分类算法还要好,特别是待分类数据量非常大时,贝叶斯分类方法相较其他分类算法具有高准确率,数据分类[5] (Classification)在商业应用上具有重要意义,是数据挖掘中非常重要的一项研究内容。通常数据分类的做法是,基于样本数据先训练构建分类函数或者分类模型(也称为分类器),该分类器的具有将待分类数据项映射到某一特点类别的功能,数据分类和回归分析都可用于预测,预测是指从基于样本数据记录,根据分类准则自动给出对未知数据的推广描述,从而实现对未知数据进行预测[6]。
贝叶斯分类是统计学的分类方法,其分析方法的特点是使用概率来表示所有形式的不确定性,学习或推理都要用概率规则来实现,当今互联网飞速发展,各类信息大规模的出现,如何在众多的信息中筛选出目标信息成了信息挖掘技术中的重要研究内容,数据挖掘中的各种文本分类算法将信息进行分组归类,提高了分类的准确性和高效性。目前,常用的分类算法有决策树分类算法、K-最邻近(KNN)分类算法、支持向量机(SVM)分类算法、朴素贝叶斯分类算法[6],已有实验研究表明,在处理大规模的数据集时,KNN 算法会有很大的计算开销,而 SVM算法的计算精度虽高但其时间开销较大,同样决策树算法的效率也会因为数据量的增大而降低。而朴素贝叶斯分类算法在分类过程中的效率较为稳定,并且使用时所需要的参数方便获得,在数据有限的情况下也可计算。总体来说,算法相对简单高效,同时具有强大可靠的数学理论作为支撑,但是其分类精确度较差,分类结果仍有一定的提升空间。目前,有两类针对传统朴素贝叶斯分类算法改进的方法 :第一种是放宽假设条件中的耦合程度,通过降低独立性的限制条件来提高分类精度,但是这种方法会大大增加计算量,代价过高,比如树增强朴素贝叶斯(TAN) [7] ,TAN 在提高分类准确度的同时,其计算难度也大大增大;第二种是通过放大在文本分类起着重要作用的特征项的影响力,也就是给特征项赋予一个权值,这种方法即简单又能有效改善分类准确度。因此,本文提出了一种基于 JS 散度的特征加权算法[8],