Python jieba庫分詞模式實例用法

在中文分詞中,jiebe庫是最為常見的,主要的原因還是它獨特的支持分詞模式如:精確模式全模式搜索引擎模式。也對應著三種方式,包括jieba.cut()方法、jieba.lcut()方法、jieba.cut_for_search()方法。下面就為大傢實例操作這些分詞模式,以及方法的使用,一起來瞭解下吧。

全模式:

import jieba
seg_list = jieba.cut("南京市長江大橋歡迎你。", cut_all=True)
print(type(seg_list),seg_list)

精確模式:

seg_list1 = jieba.lcut("南京市長江大橋歡迎你。", cut_all=False)
print(type(seg_list1),seg_list1)

搜索模式:

seg_list2 = jieba.cut_for_search("南京市長江大橋歡迎你。")
print(type(seg_list2),seg_list2)
print("全模式:" + "/ ".join(seg_list))
print("精確模式:" + "/ ".join(seg_list1))
print("搜索引擎模式:" + "/ ".join(seg_list2))

輸出結果:

全模式:南京/ 南京市/ 京市/ 市長/ 長江/ 長江大橋/ 大橋/ 歡迎/ 你/ 。

精確模式:南京市/ 長江大橋/ 歡迎/ 你/ 。

搜索引擎模式:南京/ 京市/ 南京市/ 長江/ 大橋/ 長江大橋/ 歡迎/ 你/ 。

內容擴展:

獲取詞性

我們還可以通過jiaba這個庫把詞性進行區分,比如動詞,名詞等

import jieba.posseg as psg

seg_list = psg.cut("我要進行關鍵詞提取")
print([(s.word, s.flag) for s in seg_list])
# [('我', 'r'), ('要', 'v'), ('進行', 'v'), ('關鍵詞', 'n'), ('提取', 'v')]

我們還可以提取動詞或者名詞,我們來提取下裡面的動詞

import jieba.posseg as psg

seg_list = psg.cut("我要進行關鍵詞提取")
print([(s.word, s.flag) for s in seg_list if s.flag.startswith('v')])

到此這篇關於Python jieba庫分詞模式實例用法的文章就介紹到這瞭,更多相關Python jieba庫分詞模式怎麼用內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: