首頁  >  文章  >  後端開發  >  使用python進行漢語分詞

使用python進行漢語分詞

高洛峰
高洛峰原創
2016-10-18 09:18:341495瀏覽

目前我常用的分詞有結巴分詞、NLPIR分詞等等

最近是在使用結巴分詞,稍微做一下推薦,還是蠻好用的。

一、結巴分詞簡介

利用結巴分詞進行中文分詞,基本實現原理有三:

基於Trie樹結構實現高效的詞圖掃描,生成句子中漢字所有可能成詞情況所構成的有向無環圖(DAG)

採用了動態規劃查找最大機率路徑, 找出基於詞頻的最大切分組合

對於未登錄詞,採用了基於漢字成詞能力的HMM模型,使用了Viterbi演算法

二、安裝及使用(Linux)

1.下載工具包,解壓縮後進入目錄下,運行:python setup.py install

Hint:a.一個良好的習慣是,對於下載下來的軟體,先看readme ,再進行操作。 (沒有閱讀readme,直接嘗試+百度,會走很多彎路);

     b.當時運行安裝命令時,出現錯誤:no permission!  (有些人可能會遇見這種問題,這是因為權限不夠的。執行:sudo !!   其中「!!」表示上一條指令,這裡指的就是上面的安裝指令),使用sudo後便可正常運作。


2.在使用結巴做分詞的時候,一定會用的函數是:jieba.cut(arg1,arg2);這是用於分詞的函數,我們只需要了解以下三點,便可使用

  a.cut方法接受兩個輸入參數:第一個參數(arg1)為需要進行分詞的字串,arg2參數用來控制分詞模式。

  分詞模式分為兩類:預設模式,試圖將句子最精確地切開,適合文字分析;全模式,把句子中所有的可以成詞的詞語都掃描出來,適合搜尋引擎

   b.待分詞的字串可以是gbk字串、utf-8字串或unicode

使用Python的人要注意編碼問題,Python是基於ASCII碼來處理字元的,當出現不屬於ASCII的字元時(例如在程式碼中使用漢字),會出現錯誤訊息:“ASCII codec can't encode character”,解決方案是在文件頂部加入語句: #! -*- coding:utf-8 -*-  來告訴Python的編譯器:“我這個檔案是用utf-8進行編碼的,你要進行解碼的時候,請用utf-8」。 (這裡記住,這個指令一定要加在檔案的最頂部,如果不在最頂部,編碼問題就依然存在,無法解決)關於編碼的轉換,可以參考部落格文章(ps:個人理解「import sys    reload( sys)   sys.setdefaultencoding('utf-8')」這幾句與「#! -*- coding:utf-8 -*- 」等價)

    c.jieba.cut的generator,可以使用for循環來獲得分詞後得到的每一個詞語(unicode),也可以用list(jieba.cut(...))轉化為list  

3.以下舉例jieba中提供的一個使用方法作為說明:

#! -*- coding:utf-8 -*-
import jieba
seg_list = jieba.cut("我来到北京清华大学", cut_all = True)
print "Full Mode:", ' '.join(seg_list)
  
seg_list = jieba.cut("我来到北京清华大学")
print "Default Mode:", ' '.join(seg_list)

   

輸出結果為:

Full Mode: 我/ 来/ 来到/ 到/ 北/ 北京/ 京/ 清/ 清华/ 清华大学/ 华/ 华大/ 大/ 大学/ 学  
Default Mode: 我/ 来到/ 北京/ 清华大学

   

三、結巴分義詞的其他功能在所有檔案txt,你可以不斷的完善dict.txt中的內容。

2、關鍵字抽取

透過計算分詞後的關鍵字的TF/IDF權重,來抽取重點關鍵字。

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn