我们把这两个函数封装到一个FileReaderWriter.java文件中以便后续使用。
接着我们回到知乎爬虫中。
我们需要给知乎的Zhihu封装类加个函数,用来格式化写入到本地时的排版。
代码如下:
public String writeString() { String result = ""; result += "问题:" + question + "\r\n"; result += "描述:" + questionDescription + "\r\n"; result += "链接:" + zhihuUrl + "\r\n"; for (int i = 0; i < answers.size(); i++) { result += "回答" + i + ":" + answers.get(i) + "\r\n"; } result += "\r\n\r\n"; return result; }
OK,这样就差不多了,接下来吧mian方法中的System.out.println改成
代码如下:
// 写入本地 for (Zhihu zhihu : myZhihu) { FileReaderWriter.writeIntoFile(zhihu.writeString(), "D:/知乎_编辑推荐.txt", true); }
运行,便可以看到本来在控制台看到的内容已经被写到了本地的txt文件里:
大体一看没什么问题,仔细看看发现问题:存在太多的html标签,主要是a4b561c25d9afb9ac8dc4d70affff419和0c6dc11e160d3b678d68754cc175188a。
我们可以在输出的时候对这些标记进行处理。
先把0c6dc11e160d3b678d68754cc175188a换成io流里面的\r\n,再把所有的html标签都删除,这样看起来便会清晰很多。
代码如下:
public String writeString() { // 拼接写入本地的字符串 String result = ""; result += "问题:" + question + "\r\n"; result += "描述:" + questionDescription + "\r\n"; result += "链接:" + zhihuUrl + "\r\n"; for (int i = 0; i < answers.size(); i++) { result += "回答" + i + ":" + answers.get(i) + "\r\n\r\n"; } result += "\r\n\r\n\r\n\r\n"; // 将其中的html标签进行筛选 result = result.replaceAll("<br>", "\r\n"); result = result.replaceAll("<.*?>", ""); return result; }
这里的replaceAll函数可以使用正则,于是所有的a8093152e673feb7aba1828c43532094标签在最后就都被删除了。
以上就是零基础写Java知乎爬虫之将抓取的内容存储到本地(2)的内容,更多相关内容请关注PHP中文网(www.php.cn)!