中文分詞系統(tǒng)實驗報告:jieba和IK Analyzer

Jieba使用實驗

本文嘗試了jieba的三種分詞模式、自定義字典、計算頻數(shù)并將頻數(shù)較高的分詞結(jié)果存入csv文件。

1. 配置

安裝jieba
pip install jieba

2. jieba三種分詞模式嘗試

jieba的分詞一般用cut函數(shù)完成,函數(shù)定義如下:
def cut(sentence,cut_all=False,HMM=True):
其中sentence是需要分詞的句子樣本;cut_all是分詞的模式,默認是false是精準模式;HMM就是隱馬爾可夫鏈,這個是在分詞的理論模型中用到的,默認是開啟的。

jieba分詞的模式分為三種:

  • 精確模式,試圖將句子最精確地切開,適合文本分析;
  • 全模式,把句子中所有的可以成詞的詞語都掃描出來, 速度非???,但是不能解決歧義;
  • 搜索引擎模式,在精確模式的基礎上,對長詞再次切分,提高召回率,適合用于搜索引擎分詞。

由于本組的課程設計為導師搜索引擎,所以本次實驗的分詞對象選用了四川大學公共管理學院官網(wǎng)的夏志強教師的簡介文本:

text1.txt

實現(xiàn)jieba三種分詞模式的python代碼如下:

import sys
reload(sys)
sys.setdefaultencoding('utf-8')

import jieba
    #全模式
    seg_list = jieba.cut(text,cut_all=True)
    print "[全模式]: ","/ ".join(seg_list)
    #精確模式
    seg_list = jieba.cut(text,cut_all=False)
    print "[精確模式]: ","/ ".join(seg_list)
    #搜索引擎模式
    seg_list = jieba.cut_for_search(text)
    print "[搜索引擎模式]: ","/ ".join(seg_list)

運行結(jié)果如下:


不同模式的運行結(jié)果

3. 自定義字典

從結(jié)果中我們可以看出,專有名詞"公共管理學院、"博士生導師"、"政治學類"可能因分詞而分開,這也是很多分詞工具的又一個缺陷。但是Jieba分詞支持開發(fā)者使用自定定義的詞典,以便包含jieba詞庫里沒有的詞語。雖然結(jié)巴有新詞識別能力,但自行添加新詞可以保證更高的正確率,尤其是專有名詞。

  1. 新建dict.txt
  1. 在代碼中引入自定義字典:
    jieba.load_userdict("dict.txt") #自定義字典

  2. 結(jié)果:


我們可以看到由于添加了自定義詞典,“公共管理學院”、“博士生導師”、“副主任”等詞被連起來了。

4. 計算詞頻并存入文件后,得到最終結(jié)果

為實現(xiàn)計數(shù)并存入文件,我使用了python的Counter模塊對分詞結(jié)果列表進行計數(shù),使用了csv模塊將結(jié)果寫入csv編輯。
最終代碼如下:

import sys
reload(sys)
sys.setdefaultencoding('utf-8')
import jieba
import csv
from collections import Counter
import codecs
jieba.load_userdict("dict.txt") #自定義字典

def word_frequency(text):
    seg_list = [seg for seg in jieba.cut(text,cut_all=False) if len(seg)>=2] #字符串長度為2及以上的精確分詞的list
    count = Counter(seg_list) #計數(shù)
    csv =open('result.csv','w') #打開或新建一個csv文件
    csv.write(codecs.BOM_UTF8) #防止亂碼
    for wordcount in count.most_common(50):
        word,freq=wordcount
        csv.write(word+','+str(freq)+'\n') #寫入csv文件
        print (word,freq)


if __name__=='__main__':
    with open('text1.txt','r') as t:
        text=t.read() #打開待分詞文本文件
    word_frequency(text)

運行結(jié)果,輸出了50個頻次最高的分詞及其對應的頻數(shù):


result.csv

順便用在線工具按詞頻做了一個詞云:


川大公管某教授簡介分詞詞云

IK Analyzer使用實驗

配置

1. 安裝Apache Solr
wget [http://mirror.bit.edu.cn/apache/lucene/solr/7.3.1/solr-7.3.1.tgz](http://mirror.bit.edu.cn/apache/lucene/solr/7.3.1/solr-7.3.1.tgz)
tar zxvf solr-7.3.1.tgz

啟動solr服務
sudo ./solr start -p 8983 -force
啟動成功(圖中是8080端口,但實際上我們最后用的是8983)

2. 配置IK Analyzer
  • 將IK分詞器 JAR 包拷貝到../server/solr-webapp/webapp/WEB-INF/lib下
  • 將詞典配置文件拷貝到 ../server/solr-webapp/webapps/solr/WEB-INF/classes下
  • 新建core
    sudo ./solr create -c hyjcore -p 8983 -force
    在core下,conf中放的是配置文件,stopwords中放的是停用詞
  • 修改conf下的managed-schema配置文件,添加ik analyzer的相關配置
  • 在bin下重啟solr服務
    sudo ./solr start -p 8983 -force

進行分詞

使用chrome瀏覽器進入http://139.199.177.192:8983(公網(wǎng)ip和solr運行端口)/solr/#/

運行結(jié)果:


從分詞結(jié)果來看,IK Analyzer和Jieba的全模式和搜索引擎模式結(jié)果較為相似,但從語義上來看精確度不如Jieba的精確模式。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容