熱線電話:13121318867

登錄
首頁大數據時代樸素貝葉斯算法的優缺點是什么?如何實現?
樸素貝葉斯算法的優缺點是什么?如何實現?
2020-07-24
收藏

文本分類,垃圾郵件過濾的場景中,我們經常會用到的是樸素貝葉斯算法,今天小編就具體給大家介紹一下樸素貝葉斯算法

一、樸素貝葉斯算法簡介

1.樸素貝葉斯算法概念

樸素貝葉斯法是基于貝葉斯定理與特征條件獨立假設的分類方法。樸素貝葉斯分類器(Naive Bayes Classifier,或 NBC)發源于古典數學理論,有著堅實的數學基礎,以及穩定的分類效率。

2.樸素貝葉斯算法優缺點

優點:

(1)樸素貝葉斯模型發源于古典數學理論,分類效率比較穩定。

(2)對小規模的數據表現很好,能夠用于多分類任務的處理,適合增量式訓練,尤其是在數據量超出內存的情況下,能夠一批批的去增量訓練。

(3)算法簡單,對缺失數據不太敏感。

缺點:

(1)理論上,樸素貝葉斯模型與其他分類方法相比具有最小的誤差率。但是實際上并非總是如此,這是因為樸素貝葉斯模型假設屬性之間是相互獨立的,而這個假設在實際應用中往往并不成立的。雖然在屬性相關性較小時,樸素貝葉斯性能良好。但是,在屬性個數比較多或者屬性之間相關性較大時,分類效果并不好。

(2)需要知道先驗概率,并且先驗概率在很多時候多是取決于假設,假設的模型可以有多種,從而導致在某些時候會由于假設的先驗模型而使得預測效果不佳。

(3)因為是通過先驗和數據來決定后驗的概率來決定分類的,所以分類決策存在一定的錯誤率。

(4)對輸入數據的表達形式很敏感。

二、貝葉斯定理

既然,樸素貝葉斯法是基于貝葉斯定理與特征條件獨立假設的分類方法。那么接下來我們就來了解一下貝葉斯定理。

貝葉斯算法是英國數學家貝葉斯(約1701-1761)Thomas Bayes,生前提出為解決“逆概”問題而提出的。

條件概率就是事件 A 在另外一個事件 B 已經發生條件下的發生概率。條件概率表示為P(A|B),讀作“在 B 發生的條件下 A 發生的概率”。

聯合概率表示兩個事件共同發生(數學概念上的交集)的概率。A 與 B 的聯合概率表示為

推導:

從條件概率的定義推導出貝葉斯定理。

根據條件概率的定義,在事件 B 發生的條件下事件 A 發生的概率為:

同樣道理,在事件 A 發生的條件下事件 B 發生的概率為:

結合這兩個方程式,能夠得到:

這個引理有時稱作概率乘法規則。上式兩邊同除以 P(A),若P(A)是非零的,就能得到貝葉斯定理:

三、python實現文本分類


# 文本分類器
import numpy as np


# 數據樣本
def loadDataSet():
    # dataset = [['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],
    #     #            ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
    #     #            ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'hime'],
    #     #            ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
    #     #            ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
    #     #            ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
    dataset = [['玩', '游', '戲', '吧'],
               ['玩', 'lol', '吧'],
               ['我', '要', '學', '習'],
               ['學', '習', '使', '我', '快', '了'],
               ['學', '習', '萬', '歲'],
               ['我', '要', '玩', '耍']]
    label = [1, 1, 0, 0, 0, 1]
    return dataset, label


# 獲取文檔中出現的不重復詞表
def createVocabList(dataset):
    vocaset = set([])  # 用集合結構得到不重復詞表
    for document in dataset:
        vocaset = vocaset | set(document)  # 兩個集合的并集
    return list(vocaset)


def setword(listvocaset, inputSet):
    newVocaset = [0] * len(listvocaset)
    for data in inputSet:
        if data in listvocaset:
            newVocaset[listvocaset.index(data)] = 1  # 如果文檔中的單詞在列表中,則列表對應索引元素變為1
    return newVocaset


def train(listnewVocaset, label):
    label = np.array(label)
    numDocument = len(listnewVocaset)  # 樣本總數
    numWord = len(listnewVocaset[0])  # 詞表的大小
    pInsult = np.sum(label) / float(numDocument)
    p0num = np.ones(numWord)  # 非侮辱詞匯
    p1num = np.ones(numWord)  # 侮辱詞匯
    p0Denom = 2.0  # 拉普拉斯平滑
    p1Denom = 2.0
    for i in range(numDocument):
        if label[i] == 1:
            p1num += listnewVocaset[i]
            p1Denom += 1
        else:
            p0num += listnewVocaset[i]
            p0Denom += 1
        # 取對數是為了防止因為小數連乘而造成向下溢出
        p0 = np.log(p0num / p0Denom)  # 屬于非侮辱性文檔的概率
        p1 = np.log(p1num / p1Denom)  # 屬于侮辱性文檔的概率
    return p0, p1, pInsult


# 分類函數
def classiyyNB(Inputdata, p0, p1, pInsult):
    # 因為取對數,因此連乘操作就變成了連續相加
    p0vec = np.sum(Inputdata * p0) + np.log(pInsult)
    p1vec = np.sum(Inputdata * p1) + np.log(1.0 - pInsult)
    if p0vec > p1vec:
        return 0
    else:
        return 1


def testingNB():
    dataset, label = loadDataSet()
    voast = createVocabList(dataset)
    listnewVocaset = []
    for listvocaset in dataset:
        listnewVocaset.append(setword(voast, listvocaset))
    p0, p1, pInsult = train(listnewVocaset, label)
    Inputdata = ['玩', '一', '玩']
    Inputdata = np.array(Inputdata)
    Inputdata = setword(voast, Inputdata)
    print("這句話對應的分類是:")
    print(classiyyNB(Inputdata, p0, p1, pInsult))


testingNB()


數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢