朴素贝叶斯分类

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

一、朴素贝叶斯法原理

1.基本原理

  朴素贝叶斯法(Naive Bayes)是一种基础分类算法它的核心是贝叶斯定理+条件独立性假设。贝叶斯定理描述的是两个条件概率之间的关系对两个事件A和B由乘法法则易知 P ( A ∩ B ) = P ( A ) P ( B │ A ) = P ( B ) P ( A │ B ) P(A∩B)=P(A)P(B│A)=P(B)P(A│B) P(AB)=P(A)P(BA)=P(B)P(AB)
  贝叶斯定理就是对这个关系式的变形即
P ( B │ A ) = P ( B ) P ( A ∣ B ) P ( A ) P(B│A)=\frac{P(B)P(A|B)}{P(A)} P(BA)=P(A)P(B)P(AB)
  若把样本特征和类别作为对应的条件和条件概率则贝叶斯定理可以用来解决分类问题。如对样本 x = ( x 1 , x 2 , . . . , x n ) x=\left( x_1,x_2,...,x_n \right) x=(x1,x2,...,xn)所属类别为 y y y那么该特征下对应该类别的概率代入贝叶斯公式就是 P ( y ∣ x 1 , x 2 , . . . , x n ) = P ( y ) P ( x 1 , x 2 , . . . , x n ∣ y ) P ( x 1 , x 2 , . . . , x n ) P(y|x_1,x_2,...,x_n)=\frac{P(y)P(x_1,x_2,...,x_n|y)}{P(x_1,x_2,...,x_n)} P(yx1,x2,...,xn)=P(x1,x2,...,xn)P(y)P(x1,x2,...,xny)
  贝叶斯分类法的思想就是计算样本特征对应于各类别的概率以概率最大的作为分类输出。分母部分是特征的联合概率可以进一步由全概率公式展开分子部分由于含复杂的条件概率使得直接的计算较复杂因此这里做一个条件独立性假设即认为样本的各维特征间是相互独立的这是一个较强的假设朴素贝叶斯也由此得名。在该条件之下分子便可化为 P ( y ) ∏ i = 1 n P ( x i ∣ y ) P(y)\prod_{i=1}^{n}P(x_i|y) P(y)i=1nP(xiy)
  注意到在用于分类决策时分母部分的值对于所有的类别都是相同的要找出最大概率对应的类别只考察分子即可。因此朴素贝叶斯分类器表示为 y ^ = arg ⁡ m a x y k P ( y k ) ∏ i = 1 n P ( x i ∣ y k ) \hat{y}=\arg max_{y_k}{P(y_k)\prod_{i=1}^{n}P(x_i|y_k)} y^=argmaxykP(yk)i=1nP(xiyk)

2.平滑处理

  在离散特征的情形之下进行分类输出的概率计算可能会出现概率为0的情况如随机变量观测值的某一维并未在训练集中出现那么它所属的条件概率为0致使对应类别的后验概率为0从而使分类产生偏差这是不合理的因此需进行一定的平滑处理。具体就是在频率计算时对每组统计的频数加上一个常数。
先验概率 P ( y k ) = ∑ i = 1 N I ( y i = y k ) + λ N + K λ P(y_k)=\frac{\sum_{i=1}^{N}{I(y_i=y_k)+\lambda}}{N+K\lambda} P(yk)=N+Kλi=1NI(yi=yk)+λ
条件概率 P ( x i ∣ y k ) = ∑ i = 1 N I ( x i , y i = y k ) + λ ∑ i = 1 N I ( y i = y k ) + S λ P(x_i|y_k)=\frac{\sum_{i=1}^{N}{I(x_i,y_i=y_k)+\lambda}}{\sum_{i=1}^{N}{I(y_i=y_k)+S\lambda}} P(xiyk)=i=1NI(yi=yk)+Sλi=1NI(xi,yi=yk)+λ
  当 λ = 1 \lambda=1 λ=1时称为拉普拉斯平滑(Laplace smoothing)。

3.三个基本模型

  根据特征随机变量的类型分为伯努利朴素贝叶斯、多项式朴素贝叶斯、高斯朴素贝叶斯三种基本模型。
(1) 伯努利朴素贝叶斯
  若特征随机变量符合的是离散型的二项分布也就是仅布尔值那么此时的模型称为伯努利朴素贝叶斯。从统计的角度分类器表达式分子中的连乘运算对应于n次独立试验。
(2) 多项式朴素贝叶斯
  若特征随机变量符合的是离散型的多项分布那么此时的模型称为多项式朴素贝叶斯。同样地分类器表达式分子中的连乘运算对应于n次独立试验。
(3) 高斯朴素贝叶斯
  若特征随机变量是连续型的如身高、体重即假定它是符合高斯分布的正态分布概率的计算就是由已知的数据计算出高斯分布的两个参数均值、标准差进而由密度函数确定对应的取值代入公式计算。同样地分类器表达式分子中的连乘运算对应于n次独立试验。

二、示例

  这里对多项式朴素贝叶斯分类模型举例。
训练集

样本特征向量X类别Y
[1, 1, 2, 3]1
[1, 2, 2, 4]2
[1, 2, 3, 3]2
[1, 2, 4, 4]3
[1, 3, 3, 4]3
[2, 2, 3, 4]1
[2, 1, 3, 3]3

测试样本[1, 2, 3, 4]

则类别集合为 Y ∈ { 1 , 2 , 3 } Y\in\left\{ 1,2,3 \right\} Y{1,2,3} ,
P ( Y = 1 ) = 2 7 P(Y=1)=\frac{2}{7} P(Y=1)=72, P ( Y = 2 ) = 2 7 P(Y=2)=\frac{2}{7} P(Y=2)=72, P ( Y = 3 ) = 3 7 P(Y=3)=\frac{3}{7} P(Y=3)=73,
P ( X 1 = 1 ∣ Y = 1 ) = 1 2 P\left( X_1=1|Y=1 \right)=\frac{1}{2} P(X1=1∣Y=1)=21, P ( X 2 = 2 ∣ Y = 1 ) = 1 2 P\left( X_2=2|Y=1 \right)=\frac{1}{2} P(X2=2∣Y=1)=21, P ( X 3 = 3 ∣ Y = 1 ) = 1 2 P\left( X_3=3|Y=1 \right)=\frac{1}{2} P(X3=3∣Y=1)=21,
P ( X 4 = 4 ∣ Y = 1 ) = 1 2 P\left( X_4=4|Y=1 \right)=\frac{1}{2} P(X4=4∣Y=1)=21, P ( X 1 = 1 ∣ Y = 2 ) = 1 P\left( X_1=1|Y=2 \right)=1 P(X1=1∣Y=2)=1, P ( X 2 = 2 ∣ Y = 2 ) = 1 P\left( X_2=2|Y=2 \right)=1 P(X2=2∣Y=2)=1,
P ( X 3 = 3 ∣ Y = 2 ) = 1 2 P\left( X_3=3|Y=2 \right)=\frac{1}{2} P(X3=3∣Y=2)=21, P ( X 4 = 4 ∣ Y = 2 ) = 1 2 P\left( X_4=4|Y=2 \right)=\frac{1}{2} P(X4=4∣Y=2)=21, P ( X 1 = 1 ∣ Y = 3 ) = 2 3 P\left( X_1=1|Y=3 \right)=\frac{2}{3} P(X1=1∣Y=3)=32,
P ( X 2 = 2 ∣ Y = 3 ) = 1 3 P\left( X_2=2|Y=3 \right)=\frac{1}{3} P(X2=2∣Y=3)=31, P ( X 3 = 3 ∣ Y = 3 ) = 2 3 P\left( X_3=3|Y=3 \right)=\frac{2}{3} P(X3=3∣Y=3)=32, P ( X 4 = 4 ∣ Y = 3 ) = 2 3 P\left( X_4=4|Y=3 \right)=\frac{2}{3} P(X4=4∣Y=3)=32,

归属于类别1的概率
P ( Y = 1 ) P ( X 1 = 1 ∣ Y = 1 ) P ( X 2 = 2 ∣ Y = 1 ) P ( X 3 = 3 ∣ Y = 1 ) P ( X 4 = 4 ∣ Y = 1 ) = 2 7 ⋅ 1 2 ⋅ 1 2 ⋅ 1 2 ⋅ 1 2 = 1 56 \begin{equation*} \begin{aligned} &P(Y=1)P(X_1=1|Y=1)P(X_2=2|Y=1)P(X_3=3|Y=1)P(X_4=4|Y=1)\\ &=\frac{2}{7}\cdot\frac{1}{2}\cdot\frac{1}{2}\cdot\frac{1}{2}\cdot\frac{1}{2}\\ &=\frac{1}{56} \end{aligned} \end{equation*} P(Y=1)P(X1=1∣Y=1)P(X2=2∣Y=1)P(X3=3∣Y=1)P(X4=4∣Y=1)=7221212121=561
归属于类别2的概率
P ( Y = 2 ) P ( X 1 = 1 ∣ Y = 2 ) P ( X 2 = 2 ∣ Y = 2 ) P ( X 3 = 3 ∣ Y = 2 ) P ( X 4 = 4 ∣ Y = 2 ) = 2 7 ⋅ 1 ⋅ 1 ⋅ 1 2 ⋅ 1 2 = 1 14 \begin{equation*} \begin{aligned} &P(Y=2)P(X_1=1|Y=2)P(X_2=2|Y=2)P(X_3=3|Y=2)P(X_4=4|Y=2)\\ &=\frac{2}{7}\cdot1\cdot1\cdot\frac{1}{2}\cdot\frac{1}{2}\\ &=\frac{1}{14} \end{aligned} \end{equation*} P(Y=2)P(X1=1∣Y=2)P(X2=2∣Y=2)P(X3=3∣Y=2)P(X4=4∣Y=2)=72112121=141
归属于类别3的概率
P ( Y = 3 ) P ( X 1 = 1 ∣ Y = 3 ) P ( X 2 = 2 ∣ Y = 3 ) P ( X 3 = 3 ∣ Y = 3 ) P ( X 4 = 4 ∣ Y = 3 ) = 3 7 ⋅ 2 3 ⋅ 1 3 ⋅ 2 3 ⋅ 2 3 = 8 189 \begin{equation*} \begin{aligned} &P(Y=3)P(X_1=1|Y=3)P(X_2=2|Y=3)P(X_3=3|Y=3)P(X_4=4|Y=3)\\ &=\frac{3}{7}\cdot\frac{2}{3}\cdot\frac{1}{3}\cdot\frac{2}{3}\cdot\frac{2}{3}\\ &=\frac{8}{189} \end{aligned} \end{equation*} P(Y=3)P(X1=1∣Y=3)P(X2=2∣Y=3)P(X3=3∣Y=3)P(X4=4∣Y=3)=7332313232=1898

归属于类别2的概率最大因此分类输出为2。

三、Python实现

(1) 伯努利朴素贝叶斯

'''
sklearn实现伯努利朴素贝叶斯分类。
'''

import numpy as np
from sklearn.naive_bayes import BernoulliNB

## 1.构造训练集和待测样本
#训练集数据
train_x=[
    [1, 1, 1, 1],
    [1, 1, 1, 1],
    [1, 1, 1, 0],
    [1, 1, 0, 0],
    [1, 0, 0, 0],
    [0, 0, 0, 0]
]
#训练集数据标签
train_y=[
    1,
    2,
    2,
    3,
    3,
    1
]

#待测样本
test_x = [
    [1, 2, 1, 2],
    [1, 1, 2, 2]
]

#转为array形式
train_x = np.array(train_x)
train_y = np.array(train_y)
test_x = np.array(test_x)

## 2.定义分类器
bnbClf = BernoulliNB()

## 3.训练
Fit_bnbClf = bnbClf.fit(train_x,train_y)

## 4.预测
pre_y = Fit_bnbClf.predict(test_x)

print('预测类别')
print(pre_y)

在这里插入图片描述

(2) 多项式朴素贝叶斯

'''
sklearn实现多项式朴素贝叶斯分类。
'''

import numpy as np
from sklearn.naive_bayes import ComplementNB

## 1.构造训练集和待测样本
#训练集数据
train_x=[
    [1, 1, 2, 3],
    [1, 2, 2, 4],
    [1, 2, 3, 3],
    [1, 2, 4, 4],
    [1, 3, 3, 4],
    [2, 2, 3, 4],
    [2, 1, 3, 3]
]
#训练集数据标签
train_y=[
    1,
    2,
    2,
    3,
    3,
    1,
    3
]


#待测样本
test_x = [
    [1, 2, 3, 4],
    [1, 1, 1, 4]
]

#转为array形式
train_x = np.array(train_x)
train_y = np.array(train_y)
test_x = np.array(test_x)

## 2.定义分类器
cnbClf = ComplementNB()

## 3.训练
Fit_cnbClf = cnbClf.fit(train_x,train_y)

## 4.预测
pre_y = Fit_cnbClf.predict(test_x)

print('预测类别')
print(pre_y)

在这里插入图片描述

(3) 高斯朴素贝叶斯

'''
sklearn实现高斯朴素贝叶斯分类。
'''

import numpy as np
from sklearn.naive_bayes import GaussianNB

#训练集数据
train_x=[
    [1.1, 2, 3, 4],
    [1, 2.2, 3, 4],
    [1, 2, 3.3, 4],
    [1, 2, 3, 4.4],
    [1.1, 2.2, 3, 4],
    [1, 2, 3.3, 4.4]
]
#训练集数据标签
train_y=[
    1,
    2,
    2,
    3,
    3,
    1
]

#待测样本
test_x = [
    [1.2, 2, 3, 4],
    [1, 2.3, 3, 4]
]

#转为array形式
train_x = np.array(train_x)
train_y = np.array(train_y)
test_x = np.array(test_x)

## 2.定义分类器
gnbClf = GaussianNB()

## 3.训练
Fit_gnbClf = gnbClf.fit(train_x,train_y)

## 4.预测
pre_y = Fit_gnbClf.predict(test_x)

print('预测类别')
print(pre_y)

在这里插入图片描述


End.

pdf下载

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6