python分詞工具哪家強(qiáng)
大家好,歡迎來(lái)到 Crossin的編程教室 !
分詞是自然語(yǔ)言處理中非常常見的應(yīng)用場(chǎng)景,比如從一篇文章中自動(dòng)提取關(guān)鍵詞就需要用到分詞工具,中文搜索領(lǐng)域同樣離不開分詞。python中,有很多開源的分詞工具。今天就來(lái)給大家介紹以下比較常用的幾款。
1. jieba 分詞
“結(jié)巴”分詞,GitHub最受歡迎的分詞工具,立志做最好的 Python 中文分詞組件,支持多種分詞模式,支持自定義詞典。
github star:26k
代碼示例
import?jieba
strs=["我來(lái)到北京清華大學(xué)","乒乓球拍賣完了","中國(guó)科學(xué)技術(shù)大學(xué)"]
for?str?in?strs:
????seg_list?=?jieba.cut(str,use_paddle=True)?#?使用paddle模式
????print("Paddle?Mode:?"?+?'/'.join(list(seg_list)))
seg_list?=?jieba.cut("我來(lái)到北京清華大學(xué)",?cut_all=True)
print("全模式:?"?+?"/?".join(seg_list))??#?全模式
seg_list?=?jieba.cut("我來(lái)到北京清華大學(xué)",?cut_all=False)
print("精確模式:?"?+?"/?".join(seg_list))??#?精確模式
seg_list?=?jieba.cut("他來(lái)到了網(wǎng)易杭研大廈")??#?默認(rèn)是精確模式
print("新詞識(shí)別:",?",".join(seg_list))
seg_list?=?jieba.cut_for_search("小明碩士畢業(yè)于中國(guó)科學(xué)院計(jì)算所,后在日本京都大學(xué)深造")??#?搜索引擎模式
print("搜索引擎模式:",?".join(seg_list))
輸出:
【全模式】:?我/?來(lái)到/?北京/?清華/?清華大學(xué)/?華大/?大學(xué)
【精確模式】:?我/?來(lái)到/?北京/?清華大學(xué)
【新詞識(shí)別】:他, 來(lái)到, 了, 網(wǎng)易, 杭研, 大廈????(此處,“杭研”并沒(méi)有在詞典中,但是也被Viterbi算法識(shí)別出來(lái)了)
【搜索引擎模式】:?小明, 碩士, 畢業(yè), 于, 中國(guó), 科學(xué), 學(xué)院, 科學(xué)院, 中國(guó)科學(xué)院, 計(jì)算, 計(jì)算所, 后, 在, 日本, 京都, 大學(xué), 日本京都大學(xué), 深造
github地址:
https://github.com/fxsjy/jieba
2. pkuseg 分詞
pkuseg 是北大語(yǔ)言計(jì)算與機(jī)器學(xué)習(xí)研究組開源的一款分詞工具,它的特點(diǎn)是支持多領(lǐng)域分詞,目前支持新聞?lì)I(lǐng)域,網(wǎng)絡(luò)領(lǐng)域,醫(yī)藥領(lǐng)域,旅游領(lǐng)域,以及混合領(lǐng)域的分詞預(yù)訓(xùn)練模型,用戶可以自由地選擇不同的模型。相比通用分詞工具,它的分詞準(zhǔn)確率更高 。
github star:5.4k
代碼示例
import?pkuseg
seg?=?pkuseg.pkuseg()???????????#?以默認(rèn)配置加載模型
text?=?seg.cut('python是一門很棒的語(yǔ)言')??#?進(jìn)行分詞
print(text)
輸出
['python',?'是',?'一',?'門',?'很',?'棒',?'的',?'語(yǔ)言']
github地址:
https://github.com/lancopku/pkuseg-python
3. FoolNLTK 分詞
基于BiLSTM模型訓(xùn)練而成,據(jù)說(shuō)可能是最準(zhǔn)的開源中文分詞,同樣支持用戶自定義詞典。
GitHub ?star: 1.6k
代碼示例
import?fool
text?=?"一個(gè)傻子在北京"
print(fool.cut(text))
#?['一個(gè)',?'傻子',?'在',?'北京']
github地址:
https://github.com/rockyzhengwu/FoolNLTK
4. THULAC
THULAC由清華大學(xué)自然語(yǔ)言處理與社會(huì)人文計(jì)算實(shí)驗(yàn)室研制推出的一套中文詞法分析工具包。具有詞性標(biāo)注功能,能分析出某個(gè)詞是名詞還是動(dòng)詞或者形容詞。
github star:1.5k
?代碼示例1
??代碼示例1
?import?thulac??
?thu1?=?thulac.thulac()??#默認(rèn)模式
?text?=?thu1.cut("我愛(ài)北京天安門",?text=True)??#進(jìn)行一句話分詞
?print(text)?#?我_r?愛(ài)_v?北京_ns?天安門_ns
?代碼示例2
?thu1?=?thulac.thulac(seg_only=True)??#只進(jìn)行分詞,不進(jìn)行詞性標(biāo)注
?thu1.cut_f("input.txt",?"output.txt")??#對(duì)input.txt文件內(nèi)容進(jìn)行分詞,輸出到output.txt
github地址:
https://github.com/thunlp/THULAC-Python
目前我在用的還是結(jié)巴分詞,配合用戶自定義詞典,解決常見的網(wǎng)絡(luò)詞語(yǔ),基本上就能滿足我在項(xiàng)目中的需求。
你在用什么分詞工具?歡迎留言討論。
感謝轉(zhuǎn)發(fā)和點(diǎn)贊的各位~
作者:劉志軍
來(lái)源:Python之禪_往期文章推薦_
【編程課堂】jieba-中文分詞利器