精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

使用Python+機器學(xué)習(xí)方法進(jìn)行情感分析(詳細(xì)步驟)

大數(shù)據(jù) 數(shù)據(jù)分析 機器學(xué)習(xí)
機器學(xué)習(xí)的方法精確度更高,因為詞典匹配會由于語義表達(dá)的豐富性而出現(xiàn)很大誤差,而機器學(xué)習(xí)方法不會。而且它可使用的場景更多樣。無論是主客觀分類還是正負(fù)面情感分類,機器學(xué)習(xí)都可以完成任務(wù)。而無需像詞典匹配那樣要深入到詞語、句子、語法這些層面。

不是有詞典匹配的方法了嗎?怎么還搞多個機器學(xué)習(xí)方法。

因為詞典方法和機器學(xué)習(xí)方法各有千秋。

機器學(xué)習(xí)的方法精確度更高,因為詞典匹配會由于語義表達(dá)的豐富性而出現(xiàn)很大誤差,而機器學(xué)習(xí)方法不會。而且它可使用的場景更多樣。無論是主客觀分類還是正負(fù)面情感分類,機器學(xué)習(xí)都可以完成任務(wù)。而無需像詞典匹配那樣要深入到詞語、句子、語法這些層面。

而詞典方法適用的語料范圍更廣,無論是手機、電腦這些商品,還是書評、影評這些語料,都可以適用。但機器學(xué)習(xí)則極度依賴語料,把手機語料訓(xùn)練出來的的分類器拿去給書評分類,那是注定要失敗的。

使用機器學(xué)習(xí)進(jìn)行情感分析,可以換一個相同意思的說法,就是用有監(jiān)督的(需要人工標(biāo)注類別)機器學(xué)習(xí)方法來對文本進(jìn)行分類。

這點與詞典匹配有著本質(zhì)的區(qū)別。詞典匹配是直接計算文本中的情感詞,得出它們的情感傾向分值。而機器學(xué)習(xí)方法的思路是先選出一部分表達(dá)積極情感的文本和一部分表達(dá)消極情感的文本,用機器學(xué)習(xí)方法進(jìn)行訓(xùn)練,獲得一個情感分類器。再通過這個情感分類器對所有文本進(jìn)行積極和消極的二分分類。最終的分類可以為文本給出0或1這樣的類別,也可以給出一個概率值,比如”這個文本的積極概率是90%,消極概率是10%“。

Python 有良好的程序包可以進(jìn)行情感分類,那就是Python 自然語言處理包,Natural Language Toolkit ,簡稱NLTK 。

NLTK 當(dāng)然不只是處理情感分析,NLTK 有著整套自然語言處理的工具,從分詞到實體識別,從情感分類到句法分析,完整而豐富,功能強大。實乃居家旅行,越貨殺人之必備良藥。

兩本NLTK 的參考書,非常好用。一本是《Python 自然語言處理》,這是《Natural Language Processing with Python》的中文翻譯版,是志愿者翻譯沒有出版社出版的,開源精神萬歲!另一本是《Python Text Processing with NLTK 2.0 Cookbook》,這本書寫得清晰明了,雖然是英文版的,看起來也很舒服。特別值得一提的是,該書作者Jacob 就是NLTK 包的主要貢獻(xiàn)者之一。而且他的博客中有一系列的文章是關(guān)于使用機器學(xué)習(xí)進(jìn)行情感分類的,我的代碼可以說是完全基于他的,在此表示我的感謝。

其實還有國外作者也被他啟發(fā),用Python 來處理情感分類。比如這篇文章,寫得特別詳細(xì)認(rèn)真,也是我重點參考的文章,他的代碼我也有所借用。

Jacob 在文章中也有提到,近段時間NLTK 新增的scikit-learn 的接口,使得它的分類功能更為強大好用了,可以用很多高端冷艷的分類算法了。于是我又滾過去看scikit-learn 。簡直是天賜我好工具,媽媽再也不用擔(dān)心我用不了機器學(xué)習(xí)啦!

有了scikit-learn 的接口,NLTK 做分類變得比之前更簡單快捷,但是相關(guān)的結(jié)合NLTK 和 sciki-learn 的文章實在少,這篇文章是僅有的講得比較詳細(xì)的把兩者結(jié)合的,在此也表示感謝。

但對于我而言還是有點不夠的,因為中文和英文有一定的差別,而且上面提到的一些博客里面的代碼也是需要改動的。終于把一份代碼啃完之后,能寫出一個跑得通的中文情感分類代碼了。接下來會介紹它的實現(xiàn)思路和具體代碼。

在這個系列的文章里面,機器學(xué)習(xí)都可以認(rèn)為是有監(jiān)督的分類方法。

總體流程如圖: 

\
圖1:機器學(xué)習(xí)的流程和結(jié)構(gòu)(摘自《Natural Language Processing with Python》)

一、有監(jiān)督意味著需要人工標(biāo)注,需要人為的給文本一個類標(biāo)簽。

比如我有5000條商品評論,如果我要把這些評論分成積極和消極兩類。那我就可以先從里面選2000條評論,然后對這2000條數(shù)據(jù)進(jìn)行人工標(biāo)注,把這2000條評論標(biāo)為“積極”或“消極”。這“積極”和“消極”就是類標(biāo)簽。

假設(shè)有1000條評論被標(biāo)為“積極”,有1000條評論被標(biāo)為“消極”。(兩者數(shù)量相同對訓(xùn)練分類器是有用的,如果實際中數(shù)量不相同,應(yīng)該減少和增加數(shù)據(jù)以使得它們數(shù)量相同)

二、之后就要選擇特征。

特征就是分類對象所展現(xiàn)的部分特點,是實現(xiàn)分類的依據(jù)。我們經(jīng)常會做出分類的行為,那我們依據(jù)些什么進(jìn)行分類呢?

舉個例子,如果我看到一個年輕人,穿著新的正裝,提著嶄新的公文包,快步行走,那我就會覺得他是一個剛?cè)肼毜穆殘鲂氯恕T谶@里面,“嶄新”,“正裝”,“公文包”,“快步行走”都是這個人所展現(xiàn)出的特點,也是我用來判斷這個人屬于哪一類的依據(jù)。這些特點和依據(jù)就是特征。可能有些特征對我判斷更有用,有些對我判斷沒什么用,有些可能會讓我判斷錯誤,但這些都是我分類的依據(jù)。

我們沒辦法發(fā)現(xiàn)一個人的所有特點,所以我們沒辦法客觀的選擇所有特點,我們只能主觀的選擇一部分特點來作為我分類的依據(jù)。這也是特征選擇的特點,需要人為的進(jìn)行一定選擇。

而在情感分類中,一般從“詞”這個層次來選擇特征。

比如這句話“手機非常好用!”,我給了它一個類標(biāo)簽“Positive”。里面有四個詞(把感嘆號也算上),“手機”,“非常”,“好用”,“!”。我可以認(rèn)為這4個詞都對分類產(chǎn)生了影響,都是分類的依據(jù)。也就是無論什么地方出現(xiàn)了這四個詞的其中之一,文本都可以被分類為“積極”。這個是把所有詞都作為分類特征。

同樣的,對這句話,我也可以選擇它的雙詞搭配(Bigrams)作為特征。比如“手機 非常”,“非常 好用”,“好用 !”這三個搭配作為分類的特征。以此類推,三詞搭配(Trigrams),四詞搭配都是可以被作為特征的。

三、再之后特征要降維。

特征降維說白了就是減少特征的數(shù)量。這有兩個意義,一個是特征數(shù)量減少了之后可以加快算法計算的速度(數(shù)量少了當(dāng)然計算就快了),另一個是如果用一定的方法選擇信息量豐富的特征,可以減少噪音,有效提高分類的準(zhǔn)確率。

所謂信息量豐富,可以看回上面這個例子“手機非常好用!”,很明顯,其實不需要把“手機”,“非常”,“好用”,“!”這4個都當(dāng)做特征,因為“好用”這么一個詞,或者“非常 好用”這么一個雙詞搭配就已經(jīng)決定了這個句子是“積極”的。這就是說,“好用”這個詞的信息量非常豐富。

那要用什么方法來減少特征數(shù)量呢?答案是通過一定的統(tǒng)計方法找到信息量豐富的特征。

統(tǒng)計方法包括:詞頻(Term Frequency)、文檔頻率(Document Frequency)、互信息(Pointwise Mutual Information)、信息熵(Information Entropy)、卡方統(tǒng)計(Chi-Square)等等。

在情感分類中,用詞頻選擇特征,也就是選在語料庫中出現(xiàn)頻率高的詞。比如我可以選擇語料庫中詞頻最高的2000個詞作為特征。用文檔頻率選特征,是選在語料庫的不同文檔中出現(xiàn)頻率最高的詞。而其它三個,太高端冷艷,表示理解得還不清楚,暫且不表。。。

不過意思都是一樣的,都是要通過某個統(tǒng)計方法選擇信息量豐富的特征。特征可以是詞,可以是詞組合。

四、把語料文本變成使用特征表示。

在使用分類算法進(jìn)行分類之前,***步是要把所有原始的語料文本轉(zhuǎn)化為特征表示的形式。

還是以上面那句話做例子,“手機非常好用!”

  • 如果在NLTK 中,如果選擇所有詞作為特征,其形式是這樣的:[ {“手機”: True, “非常”: True, “好用”: True, “!”: True} , positive]
  • 如果選擇雙詞作為特征,其形式是這樣的:[ {“手機 非常”: True, “非常 好用”: True, “好用 !”: True} , positive ]
  • 如果選擇信息量豐富的詞作為特征,其形式是這樣的:[ {“好用”: True} , positive ]

(NLTK需要使用字典和數(shù)組兩個數(shù)據(jù)類型,True 表示對應(yīng)的元素是特征。至于為什么要用True 這樣的方式,我也不知道。。。反正見到的例子都是這樣的。。。有空再研究看是不是可以不這樣的吧)

無論使用什么特征選擇方法,其形式都是一樣的。都是[ {“特征1”: True, “特征2”: True, “特征N”: True, }, 類標(biāo)簽 ]

五、把用特征表示之后的文本分成開發(fā)集和測試集,把開發(fā)集分成訓(xùn)練集和開發(fā)測試集。

機器學(xué)習(xí)分類必須有數(shù)據(jù)給分類算法訓(xùn)練,這樣才能得到一個(基于訓(xùn)練數(shù)據(jù)的)分類器。

有了分類器之后,就需要檢測這個分類器的準(zhǔn)確度。

根據(jù)《Python 自然語言處理》的方法,數(shù)據(jù)可以分為開發(fā)集合測試集。開發(fā)集專門用于不斷調(diào)整和發(fā)現(xiàn)***的分類算法和特征維度(數(shù)量),測試集應(yīng)該一直保持“不被污染”。在開發(fā)集開發(fā)完畢之后,再使用測試集檢驗由開發(fā)集確定的***算法和特征維度的效果。具體如圖: 

\
圖2:開發(fā)集和測試集(摘自《Natural Language Processing with Python》)

一般來說,訓(xùn)練集的數(shù)量應(yīng)該遠(yuǎn)大于測試集,這樣分類算法才能找出里面的規(guī)律,構(gòu)建出高效的分類器。

用回前面的例子。假設(shè)2000條已經(jīng)標(biāo)注了積極和消極的評論數(shù)據(jù),開發(fā)集可以是隨機的1600條,測試集是剩余的隨機400條。然后開發(fā)集中,訓(xùn)練集可以是隨機的1400條,開發(fā)測試集是200條。

六、用不同的分類算法給訓(xùn)練集構(gòu)建分類器,用開發(fā)測試集檢驗分類器的準(zhǔn)確度(選出***算法后可以調(diào)整特征的數(shù)量來測試準(zhǔn)確度)。

這個時候終于可以使用各種高端冷艷的機器學(xué)習(xí)算法啦!

我們的目標(biāo)是:找到***的機器學(xué)習(xí)算法。

可以使用樸素貝葉斯(NaiveBayes),決策樹(Decision Tree)等NLTK 自帶的機器學(xué)習(xí)方法。也可以更進(jìn)一步,使用NLTK 的scikit-learn 接口,這樣就可以調(diào)用scikit-learn 里面的所有,對,是所有機器學(xué)習(xí)算法了。我已經(jīng)忍不住的淚流滿面。

其實方法很容易。只要以下五步。

  1. 僅僅使用開發(fā)集(Development Set)。
  2. 用分類算法訓(xùn)練里面的訓(xùn)練集(Training Set),得出分類器。
  3. 用分類器給開發(fā)測試集分類(Dev-Test Set),得出分類結(jié)果。
  4. 對比分類器給出的分類結(jié)果和人工標(biāo)注的正確結(jié)果,給出分類器的準(zhǔn)確度。
  5. 使用另一個分類算法,重復(fù)以上三步。

在檢驗完所有算法的分類準(zhǔn)確度之后,就可以選出***的一個分類算法了。

在選出***的分類算法之后,就可以測試不同的特征維度對分類準(zhǔn)確度的影響了。一般來說,特征太少則不足以反映分類的所有特點,使得分類準(zhǔn)確率低;特征太多則會引入噪音,干擾分類,也會降低分類準(zhǔn)確度。所以,需要不斷的測試特征的數(shù)量,這樣才可以得到***的分類效果。

七、選擇出開發(fā)集中***的分類算法和特征維度,使用測試集檢驗得出情感分類的準(zhǔn)確度。

在終于得到***分類算法和特征維度(數(shù)量)之后,就可以動用測試集。

直接用***的分類算法對測試集進(jìn)行分類,得出分類結(jié)果。對比分類器的分類結(jié)果和人工標(biāo)注的正確結(jié)果,給出分類器的最終準(zhǔn)確度。

用Python 進(jìn)行機器學(xué)習(xí)及情感分析,需要用到兩個主要的程序包:nltk 和 scikit-learn

nltk 主要負(fù)責(zé)處理特征提取(雙詞或多詞搭配需要使用nltk 來做)和特征選擇(需要nltk 提供的統(tǒng)計方法)。

scikit-learn 主要負(fù)責(zé)分類算法,評價分類效果,進(jìn)行分類等任務(wù)。

接下來會有四篇文章按照以下步驟來實現(xiàn)機器學(xué)習(xí)的情感分析。

  1. 特征提取和特征選擇(選擇***特征)
  2. 賦予類標(biāo)簽,分割開發(fā)集和測試集
  3. 構(gòu)建分類器,檢驗分類準(zhǔn)確度,選擇***分類算法
  4. 存儲和使用***分類器進(jìn)行分類,分類結(jié)果為概率值

首先是特征提取和選擇

一、特征提取方法

1. 把所有詞作為特征 

  1. def bag_of_words(words):  
  2. return dict([(word, Truefor word in words]) 

返回的是字典類型,這是nltk 處理情感分類的一個標(biāo)準(zhǔn)形式。

2. 把雙詞搭配(bigrams)作為特征 

  1. mport nltk  
  2. from nltk.collocations import BigramCollocationFinder  
  3. from nltk.metrics import BigramAssocMeasures  
  4. def bigram(words, score_fn=BigramAssocMeasures.chi_sq, n=1000):  
  5. bigram_finder = BigramCollocationFinder.from_words(words) #把文本變成雙詞搭配的形式  
  6. bigrams = bigram_finder.nbest(score_fn, n) #使用了卡方統(tǒng)計的方法,選擇排名前1000的雙詞  
  7. return bag_of_words(bigrams) 

除了可以使用卡方統(tǒng)計來選擇信息量豐富的雙詞搭配,還可以使用其它的方法,比如互信息(PMI)。而排名前1000也只是人工選擇的閾值,可以隨意選擇其它值,可經(jīng)過測試一步步找到***值。

3. 把所有詞和雙詞搭配一起作為特征 

  1. def bigram_words(words, score_fn=BigramAssocMeasures.chi_sq, n=1000):  
  2. bigram_finder = BigramCollocationFinder.from_words(words)  
  3. bigrams = bigram_finder.nbest(score_fn, n)  
  4. return bag_of_words(words + bigrams) #所有詞和(信息量大的)雙詞搭配一起作為特征 

二、特征選擇方法

有了提取特征的方法后,我們就可以提取特征來進(jìn)行分類學(xué)習(xí)了。但一般來說,太多的特征會降低分類的準(zhǔn)確度,所以需要使用一定的方法,來“選擇”出信息量最豐富的特征,再使用這些特征來分類。

特征選擇遵循如下步驟:

  1. 計算出整個語料里面每個詞的信息量
  2. 根據(jù)信息量進(jìn)行倒序排序,選擇排名靠前的信息量的詞
  3. 把這些詞作為特征

1. 計算出整個語料里面每個詞的信息量

1.1 計算整個語料里面每個詞的信息量 

  1. from nltk.probability import FreqDist, ConditionalFreqDist  
  2. def create_word_scores(): posWords = pickle.load(open('D:/code/sentiment_test/pos_review.pkl','r')) ..... return word_scores #包括了每個詞和這個詞的信息量 

1.2 計算整個語料里面每個詞和雙詞搭配的信息量 

  1. def create_word_bigram_scores():  
  2. posdata = pickle.load(open('D:/code/sentiment_test/pos_review.pkl','r')) negdata = pickle.load(open('D:/code/sentiment_test/neg_review.pkl','r')) ..... return word_scores 

2. 根據(jù)信息量進(jìn)行倒序排序,選擇排名靠前的信息量的詞 

  1. def find_best_words(word_scores, number):  
  2. best_vals = sorted(word_scores.iteritems(), key=lambda (w, s): s, reverse=True)[:number] #把詞按信息量倒序排序。number是特征的維度,是可以不斷調(diào)整直至***的 
  3. best_words = set([w for w, s in best_vals])  
  4. return best_words 

然后需要對find_best_words 賦值,如下: 

  1. word_scores_1 = create_word_scores()  
  2. word_scores_2 = create_word_bigram_scores() 

3. 把選出的這些詞作為特征(這就是選擇了信息量豐富的特征)

  1. def best_word_features(words): return dict([(word, Truefor word in words if word in best_words]) 

三、檢測哪中特征選擇方法更優(yōu)

見構(gòu)建分類器,檢驗分類準(zhǔn)確度,選擇***分類算法

***步,載入數(shù)據(jù)。

要做情感分析,首要的是要有數(shù)據(jù)。

數(shù)據(jù)是人工已經(jīng)標(biāo)注好的文本,有一部分積極的文本,一部分是消極的文本。

文本是已經(jīng)分詞去停用詞的商品評論,形式大致如下:[[word11, word12, ... word1n], [word21, word22, ... , word2n], ... , [wordn1, wordn2, ... , wordnn]]

這是一個多維數(shù)組,每一維是一條評論,每條評論是已經(jīng)又該評論的分詞組成。 

  1. #! /usr/bin/env python2.7  
  2. #coding=utf-8  
  3. pos_review = pickle.load(open('D:/code/sentiment_test/pos_review.pkl','r'))  
  4. neg_review = pickle.load(open('D:/code/sentiment_test/neg_review.pkl','r')) 

我用pickle 存儲了相應(yīng)的數(shù)據(jù),這里直接載入即可。

第二步,使積極文本的數(shù)量和消極文本的數(shù)量一樣。 

  1. from random import shuffle  
  2. shuffle(pos_review) #把積極文本的排列隨機化  
  3. size = int(len(pos_review)/2 - 18)  
  4. pos = pos_review[:size 
  5. neg = neg_review 

我這里積極文本的數(shù)據(jù)恰好是消極文本的2倍還多18個,所以為了平衡兩者數(shù)量才這樣做。

第三步,賦予類標(biāo)簽。 

  1. def pos_features(feature_extraction_method):  
  2. posFeatures = []  
  3. ....  
  4. negFeatures.append(negWords)  
  5. return negFeatures 

這個需要用特征選擇方法把文本特征化之后再賦予類標(biāo)簽。

第四步、把特征化之后的數(shù)據(jù)數(shù)據(jù)分割為開發(fā)集和測試集 

  1. train = posFeatures[174:]+negFeatures[174:]  
  2. devtest = posFeatures[124:174]+negFeatures[124:174]  
  3. test = posFeatures[:124]+negFeatures[:124] 

這里把前124個數(shù)據(jù)作為測試集,中間50個數(shù)據(jù)作為開發(fā)測試集,***剩下的大部分?jǐn)?shù)據(jù)作為訓(xùn)練集。

在把文本轉(zhuǎn)化為特征表示,并且分割為開發(fā)集和測試集之后,我們就需要針對開發(fā)集進(jìn)行情感分類器的開發(fā)。測試集就放在一邊暫時不管。

開發(fā)集分為訓(xùn)練集(Training Set)和開發(fā)測試集(Dev-Test Set)。訓(xùn)練集用于訓(xùn)練分類器,而開發(fā)測試集用于檢驗分類器的準(zhǔn)確度。

為了檢驗分類器準(zhǔn)確度,必須對比“分類器的分類結(jié)果”和“人工標(biāo)注的正確結(jié)果”之間的差異。

所以:

  • ***步,是要把開發(fā)測試集中,人工標(biāo)注的標(biāo)簽和數(shù)據(jù)分割開來。
  • 第二步是使用訓(xùn)練集訓(xùn)練分類器;
  • 第三步是用分類器對開發(fā)測試集里面的數(shù)據(jù)進(jìn)行分類,給出分類預(yù)測的標(biāo)簽;第四步是對比分類標(biāo)簽和人工標(biāo)注的差異,計算出準(zhǔn)確度。

一、分割人工標(biāo)注的標(biāo)簽和數(shù)據(jù)

dev, tag_dev = zip(*devtest) #把開發(fā)測試集(已經(jīng)經(jīng)過特征化和賦予標(biāo)簽了)分為數(shù)據(jù)和標(biāo)簽

二到四、可以用一個函數(shù)來做 

  1. def score(classifier):  
  2. classifier = SklearnClassifier(classifier) #在nltk 中使用scikit-learn 的接口  
  3. classifier.train(train) #訓(xùn)練分類器  
  4. pred = classifier.batch_classify(testSet) #對開發(fā)測試集的數(shù)據(jù)進(jìn)行分類,給出預(yù)測的標(biāo)簽  
  5. return accuracy_score(tag_test, pred) #對比分類預(yù)測結(jié)果和人工標(biāo)注的正確結(jié)果,給出分類器準(zhǔn)確度 

之后我們就可以簡單的檢驗不同分類器和不同的特征選擇的結(jié)果。

  1. import sklearn  
  2. .....  
  3. print 'NuSVC`s accuracy is %f' %score(NuSVC()) 

1. 我選擇了六個分類算法,可以先看到它們在使用所有詞作特征時的效果: 

  1. BernoulliNB`s accuracy is 0.790000  
  2. MultinomiaNB`s accuracy is 0.810000  
  3. LogisticRegression`s accuracy is 0.710000  
  4. SVC`s accuracy is 0.650000  
  5. LinearSVC`s accuracy is 0.680000  
  6. NuSVC`s accuracy is 0.740000 

2. 再看使用雙詞搭配作特征時的效果(代碼改動如下地方即可) 

  1. posFeatures = pos_features(bigrams)  
  2. negFeatures = neg_features(bigrams) 

結(jié)果如下:

  1. BernoulliNB`s accuracy is 0.710000 MultinomiaNB`s accuracy is 0.750000 LogisticRegression`s accuracy is 0.790000 SVC`s accuracy is 0.750000 LinearSVC`s accuracy is 0.770000 NuSVC`s accuracy is 0.780000 

3. 再看使用所有詞加上雙詞搭配作特征的效果

posFeatures = pos_features(bigram_words) negFeatures = neg_features(bigram_words)

結(jié)果如下: 

  1. BernoulliNB`s accuracy is 0.710000  
  2. MultinomiaNB`s accuracy is 0.750000  
  3. LogisticRegression`s accuracy is 0.790000  
  4. SVC`s accuracy is 0.750000  
  5. LinearSVC`s accuracy is 0.770000  
  6. NuSVC`s accuracy is 0.780000 

可以看到在不選擇信息量豐富的特征時,僅僅使用全部的詞或雙詞搭配作為特征,分類器的效果并不理想。

接下來將使用卡方統(tǒng)計量(Chi-square)來選擇信息量豐富的特征,再用這些特征來訓(xùn)練分類器。

4. 計算信息量豐富的詞,并以此作為分類特征 

  1. word_scores = create_word_scores()  
  2. best_words = find_best_words(word_scores, 1500) #選擇信息量最豐富的1500個的特征  
  3. posFeatures = pos_features(best_word_features)  
  4. negFeatures = neg_features(best_word_features) 

結(jié)果如下: 

  1. BernoulliNB`s accuracy is 0.870000  
  2. MultinomiaNB`s accuracy is 0.860000  
  3. LogisticRegression`s accuracy is 0.730000  
  4. SVC`s accuracy is 0.770000  
  5. LinearSVC`s accuracy is 0.720000  
  6. NuSVC`s accuracy is 0.780000 

可見貝葉斯分類器的分類效果有了很大提升。

5. 計算信息量豐富的詞和雙詞搭配,并以此作為特征 

  1. word_scores = create_word_bigram_scores()  
  2. best_words = find_best_words(word_scores, 1500) #選擇信息量最豐富的1500個的特征  
  3. posFeatures = pos_features(best_word_features)  
  4. negFeatures = neg_features(best_word_features) 

結(jié)果如下: 

  1. BernoulliNB`s accuracy is 0.910000  
  2. MultinomiaNB`s accuracy is 0.860000  
  3. LogisticRegression`s accuracy is 0.800000  
  4. SVC`s accuracy is 0.800000  
  5. LinearSVC`s accuracy is 0.750000  
  6. NuSVC`s accuracy is 0.860000 

可以發(fā)現(xiàn)貝努利的貝葉斯分類器效果繼續(xù)提升,同時NuSVC 也有很大的提升。

此時,我們選用BernoulliNB、MultinomiaNB、NuSVC 作為候選分類器,使用詞和雙詞搭配作為特征提取方式,測試不同的特征維度的效果。 

  1. dimension = ['500','1000','1500','2000','2500','3000' 
  2. for d in dimension:  
  3. word_scores = create_word_scores_bigram()  
  4. best_words = find_best_words(word_scores, int(d))  
  5. posFeatures = pos_features(best_word_features)  
  6. negFeatures = neg_features(best_word_features)  
  7. train = posFeatures[174:]+negFeatures[174:]  
  8. devtest = posFeatures[124:174]+negFeatures[124:174]  
  9. test = posFeatures[:124]+negFeatures[:124]  
  10. dev, tag_dev = zip(*devtest)  
  11. print 'Feature number %f' %d  
  12. print 'BernoulliNB`s accuracy is %f' %score(BernoulliNB())  
  13. print 'MultinomiaNB`s accuracy is %f' %score(MultinomialNB())  
  14. print 'LogisticRegression`s accuracy is %f' %score(LogisticRegression()) 
  15. print 'SVC`s accuracy is %f' %score(SVC())  
  16. print 'LinearSVC`s accuracy is %f' %score(LinearSVC())  
  17. print 'NuSVC`s accuracy is %f' %score(NuSVC()) 

結(jié)果如下(很長。。): 

  1. Feature number 500  
  2. BernoulliNB`s accuracy is 0.880000  
  3. MultinomiaNB`s accuracy is 0.850000  
  4. LogisticRegression`s accuracy is 0.740000  
  5. SVC`s accuracy is 0.840000  
  6. LinearSVC`s accuracy is 0.700000  
  7. NuSVC`s accuracy is 0.810000  
  8. Feature number 1000  
  9. BernoulliNB`s accuracy is 0.860000  
  10. MultinomiaNB`s accuracy is 0.850000  
  11. LogisticRegression`s accuracy is 0.750000  
  12. SVC`s accuracy is 0.800000  
  13. LinearSVC`s accuracy is 0.720000  
  14. NuSVC`s accuracy is 0.760000  
  15. Feature number 1500  
  16. BernoulliNB`s accuracy is 0.870000  
  17. MultinomiaNB`s accuracy is 0.860000  
  18. LogisticRegression`s accuracy is 0.770000  
  19. SVC`s accuracy is 0.770000  
  20. LinearSVC`s accuracy is 0.750000  
  21. NuSVC`s accuracy is 0.790000  
  22. Feature number 2000  
  23. BernoulliNB`s accuracy is 0.870000  
  24. MultinomiaNB`s accuracy is 0.850000  
  25. LogisticRegression`s accuracy is 0.770000  
  26. SVC`s accuracy is 0.690000  
  27. LinearSVC`s accuracy is 0.700000  
  28. NuSVC`s accuracy is 0.800000  
  29. Feature number 2500  
  30. BernoulliNB`s accuracy is 0.850000  
  31. MultinomiaNB`s accuracy is 0.830000  
  32. LogisticRegression`s accuracy is 0.780000  
  33. SVC`s accuracy is 0.700000  
  34. LinearSVC`s accuracy is 0.730000  
  35. NuSVC`s accuracy is 0.800000  
  36. Feature number 3000  
  37. BernoulliNB`s accuracy is 0.850000  
  38. MultinomiaNB`s accuracy is 0.830000  
  39. LogisticRegression`s accuracy is 0.780000  
  40. SVC`s accuracy is 0.690000  
  41. LinearSVC`s accuracy is 0.710000  
  42. NuSVC`s accuracy is 0.800000 

把上面的所有測試結(jié)果進(jìn)行綜合可匯總?cè)缦拢?/p>

不同分類器的不同特征選擇方法效果 

\

綜合來看,可以看出特征維數(shù)在500 或 1500的時候,分類器的效果是***的。

所以在經(jīng)過上面一系列的分析之后,可以得出如下的結(jié)論:

  • Bernoulli 樸素貝葉斯分類器效果***
  • 詞和雙詞搭配作為特征時效果***
  • 當(dāng)特征維數(shù)為1500時效果***

為了不用每次分類之前都要訓(xùn)練一次數(shù)據(jù),所以可以在用開發(fā)集找出***分類器后,把***分類器存儲下來以便以后使用。然后再使用這個分類器對文本進(jìn)行分類。

一、使用測試集測試分類器的最終效果 

  1. word_scores = create_word_bigram_scores() #使用詞和雙詞搭配作為特征  
  2. best_words = find_best_words(word_scores, 1500) #特征維度1500  
  3. posFeatures = pos_features(best_word_features)  
  4. negFeatures = neg_features(best_word_features)  
  5. trainSet = posFeatures[:500] + negFeatures[:500] #使用了更多數(shù)據(jù)  
  6. testSet = posFeatures[500:] + negFeatures[500:]  
  7. test, tag_test = zip(*testSet)  
  8. def final_score(classifier):  
  9. classifier = SklearnClassifier(classifier)  
  10. classifier.train(trainSet)  
  11. pred = classifier.batch_classify(test)  
  12. return accuracy_score(tag_test, pred)  
  13. print final_score(BernoulliNB()) #使用開發(fā)集中得出的***分類器 

其結(jié)果是很給力的:

  1. 0.979166666667 

二、把分類器存儲下來

(存儲分類器和前面沒有區(qū)別,只是使用了更多的訓(xùn)練數(shù)據(jù)以便分類器更為準(zhǔn)確) 

  1. word_scores = create_word_bigram_scores()  
  2. best_words = find_best_words(word_scores, 1500)  
  3. posFeatures = pos_features(best_word_features)  
  4. negFeatures = neg_features(best_word_features)  
  5. trainSet = posFeatures + negFeatures  
  6. BernoulliNB_classifier = SklearnClassifier(BernoulliNB())  
  7. BernoulliNB_classifier.train(trainSet)  
  8. pickle.dump(BernoulliNB_classifier, open('D:/code/sentiment_test/classifier.pkl','w')) 

在存儲了分類器之后,就可以使用該分類器來進(jìn)行分類了。

三、使用分類器進(jìn)行分類,并給出概率值

給出概率值的意思是用分類器判斷一條評論文本的積極概率和消極概率。給出類別也是可以的,也就是可以直接用分類器判斷一條評論文本是積極的還是消極的,但概率可以提供更多的參考信息,對以后判斷評論的效用也是比單純給出類別更有幫助。

1. 把文本變?yōu)樘卣鞅硎镜男问?/strong>

要對文本進(jìn)行分類,首先要把文本變成特征表示的形式。而且要選擇和分類器一樣的特征提取方法。 

  1. #! /usr/bin/env python2.7  
  2. #coding=utf-8  
  3. moto = pickle.load(open('D:/code/review_set/senti_review_pkl/moto_senti_seg.pkl','r')) #載入文本數(shù)據(jù)  
  4. def extract_features(data):  
  5. feat = []  
  6. for i in data:  
  7. feat.append(best_word_features(i))  
  8. return feat  
  9. moto_features = extract_features(moto) #把文本轉(zhuǎn)化為特征表示的形式 

注:載入的文本數(shù)據(jù)已經(jīng)經(jīng)過分詞和去停用詞處理。

2. 對文本進(jìn)行分類,給出概率值 

  1. import pickle  
  2. import sklearn  
  3. clf = pickle.load(open('D:/code/sentiment_test/classifier.pkl')) #載入分類器  
  4. pred = clf.batch_prob_classify(moto_features) #該方法是計算分類概率值的  
  5. p_file = open('D:/code/sentiment_test/score/Motorala/moto_ml_socre.txt','w') #把結(jié)果寫入文檔  
  6. for i in pred:  
  7. p_file.write(str(i.prob('pos')) + ' ' + str(i.prob('neg')) + '\n' 
  8. p_file.close() 

***分類結(jié)果如下圖: 

\

前面是積極概率,后面是消極概率

折騰了這么久就為了搞這么一個文件出來。。。這傷不起的節(jié)奏已經(jīng)無人阻擋了嗎。。。

不過這個結(jié)果確實比詞典匹配準(zhǔn)確很多,也算欣慰了。。。

 

責(zé)任編輯:未麗燕 來源: 網(wǎng)絡(luò)大數(shù)據(jù)
相關(guān)推薦

2016-12-07 14:45:25

KNIME情感分析數(shù)據(jù)分析

2016-12-07 14:23:48

KNIME數(shù)據(jù)分析情感分析

2016-12-07 14:56:51

KNIME數(shù)據(jù)分析

2023-02-03 11:40:49

機器學(xué)習(xí)分析情感

2019-05-14 10:37:26

Python機器學(xué)習(xí)編程語言

2022-06-09 09:14:31

機器學(xué)習(xí)PythonJava

2022-06-05 21:16:08

機器學(xué)習(xí)Python

2024-10-30 16:59:57

Python機器學(xué)習(xí)

2012-08-06 09:04:01

決策樹建模

2017-09-17 23:14:41

機器學(xué)習(xí)人工智能設(shè)計

2016-09-30 15:33:02

集成學(xué)習(xí)機器學(xué)習(xí)算法

2025-01-06 08:35:42

SVM機器學(xué)習(xí)人工智能

2017-10-10 13:13:48

2016-12-28 15:19:22

大數(shù)據(jù)機器學(xué)習(xí)銷售預(yù)測

2018-09-04 11:45:31

前端JavaScriptNodeJS

2020-12-25 15:24:24

人工智能

2016-01-11 10:44:38

惡意軟件惡意軟件分析

2009-06-17 15:06:39

Java 學(xué)習(xí)方法

2009-09-16 10:16:29

CCNA學(xué)習(xí)方法CCNA

2009-09-08 09:25:46

思科認(rèn)證學(xué)習(xí)方法思科認(rèn)證
點贊
收藏

51CTO技術(shù)棧公眾號

中文字幕日本在线观看| 在线观看免费黄色网址| 激情网站在线| 91视视频在线观看入口直接观看www | www.亚洲.com| 国产成人精品影院| 日本91av在线播放| 老司机精品免费视频| **爰片久久毛片| 色综合久久九月婷婷色综合| 一区二区高清视频| 老牛影视av牛牛影视av| 日韩高清中文字幕一区| 亚洲精品日韩综合观看成人91| 亚洲字幕一区二区| 日本视频免费观看| 欧美三级视频| 这里只有精品视频| 性猛交╳xxx乱大交| 亚洲成人人体| 亚洲福利一二三区| 亚洲欧美日韩在线综合| 天堂网av2014| 国产精品白丝jk黑袜喷水| 日本高清+成人网在线观看| 国产精品 欧美激情| 嫩草国产精品入口| 欧美一区二区视频观看视频| 日本成人在线免费视频| 久久大胆人体| 亚洲人妖av一区二区| 欧美日韩精品免费观看| 好男人www在线视频| 国模少妇一区二区三区| 国产成人亚洲综合91| 日韩av在线电影| 欧美/亚洲一区| 日韩午夜在线视频| 91成年人网站| 任我爽精品视频在线播放| 91精品国产免费| 激情五月俺来也| 91p九色成人| 色94色欧美sute亚洲线路一ni| 日韩xxxx视频| 俄罗斯一级**毛片在线播放| 亚洲欧美激情视频在线观看一区二区三区| 性欧美大战久久久久久久免费观看| 天天插天天干天天操| 狠狠色丁香婷婷综合| 国产精品视频在线观看| 伊人免费在线观看高清版| 日韩专区欧美专区| 国产精品国产三级国产aⅴ9色| 国产精品美女久久久久av爽| 亚洲黄色影院| 国语自产在线不卡| 日本在线视频免费| 韩国在线一区| 国内精品久久影院| 激情五月色婷婷| 亚洲欧美激情诱惑| 日韩免费av在线| 久久影视中文字幕| 久久国产人妖系列| 91免费版网站入口| 精品人妻一区二区三区四区不卡 | 亚洲一区二区三区免费视频| 国产视频在线观看网站| 2019中文字幕在线电影免费| 亚洲二区视频在线| 国产乱子伦农村叉叉叉| 亚洲人体影院| 欧美少妇一区二区| 亚洲无在线观看| 午夜久久av| 日韩精品一区二区视频| 亚洲精品成人无码| 99久久久久| 欧美国产日韩xxxxx| 日韩欧美一区二区一幕| 老鸭窝亚洲一区二区三区| 国产精品久久久久久久久久小说| 中文字幕在线播放av| 激情综合色播五月| 国内精品视频在线播放| 国产毛片av在线| 综合久久久久综合| 国产3p露脸普通话对白| 秋霞国产精品| 欧美一二三在线| 国产中文字幕一区二区| 日韩dvd碟片| 久久免费视频在线观看| 亚洲永久精品一区| 国产成人综合视频| 欧美一区少妇| 日本高清成人vr专区| 欧美日韩中文在线观看| 色婷婷激情视频| 性人久久久久| 欧美成人一二三| 国产亚洲欧美在线精品| 国产剧情一区二区| 日本在线成人一区二区| 在线电影福利片| 欧美专区日韩专区| 日本五十肥熟交尾| 天天综合一区| 国产高清视频一区三区| 懂色av蜜臀av粉嫩av分享吧| 中文字幕国产一区| 337p粉嫩大胆噜噜噜鲁| 国产精品色婷婷在线观看| 亚洲欧美综合图区| 久久伊人成人网| 久久 天天综合| 欧美一区激情视频在线观看| 高清视频在线观看三级| 8v天堂国产在线一区二区| 在线观看日本中文字幕| 在线国产欧美| 91aaaa| 日本中文在线| 色综合久久中文字幕| 日本不卡视频一区| 在线中文字幕第一区| 国产精品视频久久| 黄色软件在线| 日韩欧美一区二区三区| 欧美久久久久久久久久久| 91精品国产乱码久久久久久| 国产精品成人免费电影| 色在线免费视频| 午夜日韩在线电影| 乱码一区二区三区| 欧美1区免费| 7777精品久久久大香线蕉小说| 午夜视频在线观看网站| 在线日韩av片| 一级特黄曰皮片视频| 亚洲一区二区伦理| 加勒比在线一区二区三区观看| 日韩另类在线| 精品粉嫩超白一线天av| 久久久久人妻一区精品色欧美| 国精产品一区一区三区mba视频| 亚洲欧洲三级| 日韩在线激情| 久久精品男人天堂| 国产伦一区二区| 日韩美女久久久| 天天色天天综合网| 久久久久久美女精品| 成人午夜激情网| 麻豆网站在线| 欧美一卡二卡在线观看| 麻豆成人在线视频| 成人免费毛片片v| 国产精品久久中文字幕| 三级精品视频| 国产精品久久久999| yiren22亚洲综合伊人22| 欧美日韩一区二区不卡| 国产精品国产精品88| 国产精品小仙女| 欧洲美女和动交zoz0z| 日韩一区二区三区色| 欧美激情一二区| 性xxxx视频播放免费| 天天综合网 天天综合色| 麻豆国产精品一区| 秋霞电影网一区二区| 在线视频一区观看| 99精品中文字幕在线不卡| 欧美一级片一区| 日韩成人影视| 欧美精品一区二区三区视频| 中文字幕一区在线播放| 国产精品成人免费| 国产精品一区二区在线免费观看| 亚洲欧美日韩国产| 亚洲国产精品视频一区| 亚洲专区**| 日本欧美中文字幕| 超碰caoporn久久| 日韩av中文字幕在线| 成人黄色三级视频| 一区二区在线观看免费| 成人激情综合网站| 国产亚洲一区二区精品| 丰满熟女人妻一区二区三| 日韩一区中文字幕| av无码一区二区三区| 蜜臀久久99精品久久久久宅男 | 亚洲麻豆一区二区三区| 香蕉久久夜色精品国产| 中国成人亚色综合网站| 欧美sss在线视频| 国产在线高清精品| 九色porny自拍视频在线观看| 在线午夜精品自拍| 秋霞欧美在线观看| 欧美日韩国产系列| 免费观看成人毛片| 亚洲激情六月丁香| 怡红院一区二区三区| 丰满放荡岳乱妇91ww| av五月天在线| 在线视频观看日韩| 在线观看三级网站| 欧美在线观看视频一区| 精品日产一区2区三区黄免费 | 日韩一区二区三区在线视频| 少妇一级淫片免费放中国| 一区二区三区欧美日| www.99热| 97aⅴ精品视频一二三区| 亚洲综合123| 麻豆精品一二三| 欧美日韩一区二区在线免费观看| 亚洲性感美女99在线| 最新精品视频| 日韩欧美三级| 日本在线视频一区| 天海翼精品一区二区三区| 成人av男人的天堂| 少妇高潮一区二区三区99| 国产成人在线亚洲欧美| 182在线视频观看| 久久久国产一区二区| wwwww在线观看免费视频| 日韩精品免费在线视频观看| 国产综合无码一区二区色蜜蜜| 欧美一区中文字幕| 国产又粗又黄又爽的视频| 欧美性大战xxxxx久久久| 天堂网视频在线| 欧美日韩国产精品专区| 青青草偷拍视频| 一区二区三区四区视频精品免费| 国产精品久久久久久久精| 亚洲视频在线一区二区| 中日韩一级黄色片| 亚洲欧洲av在线| 久久嫩草捆绑紧缚| 1区2区3区国产精品| 你懂得在线观看| 综合电影一区二区三区 | 在线观看成人动漫| 成人免费观看av| 屁屁影院国产第一页| www.99精品| 国产国语性生话播放| 久久久精品天堂| 人妻精品久久久久中文| 亚洲国产精品成人综合色在线婷婷| 日本二区在线观看| 国产精品三级视频| 91视频青青草| 一区二区三区四区蜜桃| 日韩欧美亚洲国产| 欧美丝袜美女中出在线| 中文字幕永久在线| 在线不卡一区二区| 亚洲国产一二三区| 日韩成人在线播放| 国产专区在线播放| 日韩中文字幕欧美| 性xxxfreexxxx性欧美| 韩剧1988在线观看免费完整版| 特黄毛片在线观看| 国产精品久久久久999| 国产一区二区av在线| 99在线高清视频在线播放| 久久免费视频66| 视频三区二区一区| 欧美日本精品| 欧美aⅴ在线观看| 精品一区二区三区在线观看| 下面一进一出好爽视频| 99精品黄色片免费大全| 国产精品密蕾丝袜| 亚洲免费观看高清在线观看| 国产成人在线播放视频| 欧美色窝79yyyycom| wwwxxxx国产| 亚洲人成电影网站色www| 好吊日视频在线观看| 97在线视频免费看| 国产欧美自拍| 国精产品99永久一区一区| 黑人操亚洲人| 国产91沈先生在线播放| 日韩二区在线观看| 在线观看一区二区三区四区| 国产欧美综合色| 亚洲精品午夜久久久久久久| 欧美性猛交xxxx乱大交退制版 | 成人黄色综合网站| 中文字幕在线观看二区| 婷婷开心激情综合| 国产免费一区二区三区免费视频| 日韩精品在线免费| 呦呦在线视频| 国产精品成人品| 理论片一区二区在线| 性做爰过程免费播放| 久久这里只有| 国产精品久久久久久亚洲色| 国产精品电影一区二区| 男人日女人网站| 精品福利一二区| 黄色网页在线看| 国产精品久久久久久久久久三级| 国产三级精品三级在线观看国产| 一区在线电影| 日本欧美在线看| 久久中文字幕人妻| 亚洲成年人网站在线观看| 国产日韩一级片| 色偷偷av亚洲男人的天堂| 日韩三级影视| 免费日韩av电影| 国产日韩免费| 天天躁日日躁狠狠躁av麻豆男男| 日韩理论片网站| 在线视频欧美亚洲| 一区二区国产精品视频| 波多视频一区| 久久99久久精品国产| 亚洲激精日韩激精欧美精品| 伊人影院在线观看视频| 亚洲精品一卡二卡| 一级片在线观看视频| 一区二区欧美在线| 视频二区不卡| 日产精品久久久一区二区| 新狼窝色av性久久久久久| 欲求不满的岳中文字幕| 香蕉久久一区二区不卡无毒影院| 成人久久久精品国产乱码一区二区| 久久夜色精品国产| 国内不卡的一区二区三区中文字幕| 一区二区冒白浆视频| 九九视频精品免费| 老司机成人免费视频| 91精品国产黑色紧身裤美女| 二区三区四区高清视频在线观看| 成人国产在线视频| 国产精品久久久久9999赢消| 肉色超薄丝袜脚交| 亚洲精品日产精品乱码不卡| 亚洲国产精品久久久久久6q | 亚洲高清精品中出| 美女久久久精品| 少妇高潮一区二区三区喷水| 911精品国产一区二区在线| gogogogo高清视频在线| 成人动漫视频在线观看免费| 亚洲午夜在线| 国产美女喷水视频| 欧美日韩国产首页在线观看| 91小视频xxxx网站在线| 国产精选一区二区| 久久高清国产| 男女全黄做爰文章| 精品少妇一区二区三区免费观看| av中文在线资源库| 欧美另类一区| 久久精品久久综合| 国产成人久久久久| 亚洲精美色品网站| 日韩中文影院| 国产一二三四区在线观看| 不卡的电视剧免费网站有什么| 综合网在线观看| 麻豆国产精品va在线观看不卡| 99国产精品免费网站| 密臀av一区二区三区| 亚洲免费在线观看视频| 少妇又色又爽又黄的视频| 国产精品欧美在线| 狠狠入ady亚洲精品| 日韩一级av毛片| 欧美一区二区三区影视| 中文字幕乱码在线播放| 一区二区三区四区视频在线观看| 成人午夜视频福利| 中国老头性行为xxxx| 欧美激情在线有限公司| 欧美一区二区性| 免费成人蒂法网站| 欧美丰满嫩嫩电影| 成人欧美大片| 青青草视频在线视频| 欧美国产精品久久| 天天干免费视频| 91超碰在线电影| 日韩国产精品久久|