机器学习:朴素贝叶斯法

朴素贝叶斯法重要是利用了贝叶斯公式:P(Y|X)=P(X,Y)/P(X),P(X|Y)=P(X,Y)/P(Y)。假定训练集与P(X,Y)同分布,通过训练集确定P(Y),P(Y|X),从而求得P(X,Y)。然后利用P(X),P(X,Y)求P(Y|X)。非常简单的一个思路,因为他是先求P(X,Y),所以朴素贝叶斯法可以看做是生成模型。

如果输入是多维特征向量,朴素贝叶斯法假设特征之间是条件独立的,所以大大简化了问题。最后输出的Y,就是在样本中使得P(Yk)*P(X1|Yk)*P(X2|Y)...*P(Xn|Yk)/P(X)概率最大的那个类,因为P(X)输入相同都相同可以省去,简化为求P(Yk)*P(X1|Yk)..P(Xn|Yk)最大。Y对应着若干分类通过样本直接计算得出,P(X1|Yk)也可以由样本直接得出。

当然有可能出现P(X|Y)为零的情况,为避免这种特殊情况会额外增加一个大于零的参数(拉普拉斯平滑),这个参数由人为指定,目的就是避免样本中概率计算出0的情况。


机器学习:朴素贝叶斯法

展开阅读全文

页面更新:2024-04-15

标签:朴素   多维   拉普拉斯   目的   向量   假定   平滑   样本   概率   公式   模型   思路   特征   机器   参数   情况

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top