CountVectorizer官方文件。
將一個文件集合矢量化為為一個計數矩陣。
如果不提供一個先驗字典,不使用分析器做某種特徵選擇,那麼特徵的數量將等於透過分析資料發現的詞彙量。
兩種方法:1.可以不分詞直接投入模型;2.可以先將中文文字分詞。
兩種方法產生的詞彙會非常不同。後面會具體給出示範。
import jieba import re from sklearn.feature_extraction.text import CountVectorizer #原始数据 text = ['很少在公众场合手机外放', '大部分人都还是很认真去学习的', '他们会用行动来', '无论你现在有多颓废,振作起来', '只需要一点点地改变', '你的外在和内在都能焕然一新'] #提取中文 text = [' '.join(re.findall('[\u4e00-\u9fa5]+',tt,re.S)) for tt in text] #分词 text = [' '.join(jieba.lcut(tt)) for tt in text] text
#构建模型 vectorizer = CountVectorizer() #训练模型 X = vectorizer.fit_transform(text)
#所有文档汇集后生成的词汇 feature_names = vectorizer.get_feature_names() print(feature_names)
不分詞產生的詞彙
分詞後產生的詞彙
#每个文档相对词汇量出现次数形成的矩阵 matrix = X.toarray() print(matrix)
#计数矩阵转化为DataFrame df = pd.DataFrame(matrix, columns=feature_names) df字彙索引:model.vocabulary_
print(vectorizer.vocabulary_)
#
以上是如何使用Python的sklearn中的CountVectorizer?的詳細內容。更多資訊請關注PHP中文網其他相關文章!