使用结巴分词对中文文本进行处理,然后用再删除停用词。
代码如下
stop = [line.strip().decode('utf-8') for line in open('stopwords.txt').readlines() ]
ll=jieba.cut('明天 台风“尼伯特”可能就要 来啦!',cut_all=False)
print '|'.join(list(set(ll)-set(stop)))
[Out]: 明天| |台风|尼伯特
我在stopwords.txt里放进去了空格(半角全角都放了)以及各种标点符号,标点符号都成功的过滤掉了,但是空格还是保留着,这是为什么呢?
好像是读进来就已经没有空格存在了……
' ' in stop
[Out]: False
' ' in open('stopwords.txt').readlines()
[Out]: False
附图,文件里是有空格的
实在没办法我只好自己在代码里加上了 stop=stop+[' ']
我找到原因了,因为在文档里,空格存的是" \n" ,readlines读进来也就是这样子,我用strip()去掉"\n"的同时也把空格去掉了,变成了""。如果只用readlines拿进来也是不能用的,所以这个问题的解决办法应该就只有上面写的,读进来处理完之后再给list加上一个空格进去哈哈……