搜索

首页  >  问答  >  正文

python - 如何统计一份英文 API 开发文档(如 javadoc文档)的词频?

如题,简单一点的功能是如何对一份英文 API 开发文档进行词频的统计?(文档可能是多个 html 文件,也可能是 chm 文件,不是简单的 txt 文本);

复杂一点的需求是,因为开发文档涉及很多类名、函数或方法名等,单词可能会连在一起,统计时最好能够分开(这个可以根据命名规则来分开)

再复杂一点的需求是,因为单纯统计一个文档的词频没多大的实际意义,如何将统计后的单词再加工处理:

如果开发具有以上功能的软件,具体需要涉及哪些技术? 欢迎提供你的想法……

呃,其实我的痛点是,看一份英文文档时,有太多不懂的单词,经常要去查单词,效率太低了,如果有一个工具可以统计分析出一份文档的词汇,就可以在看文档前先大致熟悉词汇的意思,提高效率;而且对于开发时,命名也有帮助……

修改备注:

另外,提的问题如果有错,可以留言,我会修改,能不踩吗?

迷茫迷茫2726 天前1126

全部回复(2)我来回复

  • 世界只因有你

    世界只因有你2017-07-05 10:37:00

    准备考研,很久没写过代码了,不过大概思路应该是:

    1. 清洗过滤:对于html,首先把内容过滤出来,你可以自己写正则或者用找点别人写好的

    2. 单词分词:先用空格等常见的分隔符对单词过滤,再根据不同的语言命名规范找出一个个的单词

    3. 过滤常用词:在网上应该可以找到英语常用词的文件,匹配一下

    4. WordCount:可以直接单纯的用python自己实现MapReduce的过滤,或者Hadoop、Spark之类的也可以

    到此为止就完成了过滤简单词的单词统计了
    关于统计出计算机相关词,你需要网上下载计算机相关词汇的数据文件,直接匹配即可
    需要给出解释的话,调用有道、百度翻译的api即可,不过这些API可能有次数上限,我没有用过。

    以上所说步骤都没有考虑效率的问题,如果需要考虑效率问题,还需要使用到些算法或直接使用别人写好的类库。
    关于你所说到的机器学习,这里的需求暂时不需要、且没必要使用到。

    最后:我还是想说,想读懂文档的最快的办法就是多读文档,坚持读下来,你会发现读文档的速度会越来越快。不过把这个当作练手的项目,也算是做了点有意思的事情。


    关于问题修改后的回复:
    你提及的机器学习,目前大体上是有监督式和非监督式,但根据你的提及:

    一个具有机器学习的软件大量阅读编程的开发文档,找出里面的专业术语,使整个功能的实现更加智能化……

    1. 如果采用监督式学习那必然需要语料数据的支持,而如果已经有语料数据何不直接用字符串匹配实现?

    2. 当采用非监督式学习,目前我也是初学,依我的理解,似乎只能达到聚类的效果,若想自动识别是计算机术语,必然还是需要人工标注或者数据的支持

    3. 如果再往下深究,就需要好好研究NLP了

    我觉得你好像是对机器学习感兴趣,但我感觉这个并不是机器学习练手的一个好项目。

    回复
    0
  • 淡淡烟草味

    淡淡烟草味2017-07-05 10:37:00

    这个应该不叫英语分词,分词应该指按句子成分划分。连在一次的变量名可以考虑按常见的命名方式识别,比如大小写的Camel-Case、下划线分割的 Underscores 等。

    分词可以找各种 Word Splitting 库,python 应该有很多。计算机的专业名词下载词库,单词提取出来之后跟词库匹配得到释义。

    但其实即使做出来也不一定能更方便阅读,光看单词有点曲线救国的感觉,很可能根本看不进去。计算机文章的词汇量不是很多,一回生两回熟,优化查词体验比较妥,推荐 collins双解 结合 Macmillan ,MDict 或者欧路词典都可以加载。Chrome 也可以装 Saladict 沙拉查词。

    回复
    0
  • 取消回复