有多條這樣類似的數據
{ "_id" : ObjectId("56d06f01c3666e08d0f0c844"),
"http://tieba.baidu.com/p/4345287300" : "【关于更新】作者原话",
"http://tieba.baidu.com/p/4328978430" : "服务。",
"http://tieba.baidu.com/p/4372502982" : "『诛魂记』第331章:圣东王府",
"http://tieba.baidu.com/p/4355241530" : "『诛魂记』第322章:麒麟之威",
"http://tieba.baidu.com/p/4329505585" : "『诛魂记』第313章:泣血跪求",
"http://tieba.baidu.com/p/4343824178" : "新年快乐啦啦啦",
"http://tieba.baidu.com/p/4328603018" : "写小说好看吗",
"http://tieba.baidu.com/p/4333008061" : "来吧,你我君臣一场",
"http://tieba.baidu.com/p/4315565196" : "『诛魂记』第305章:临危受命",
"http://tieba.baidu.com/p/4340906961" : "『诛魂记』第320章:擒贼擒王",
"http://tieba.baidu.com/p/4337476352" : "新年到了,是不是发红包了"
}
我想在上面的數據當中獲得能夠匹配:『誅魂記』 的連結以及後面的文字數據,例如
"http://tieba.baidu.com/p/4329505585" : "『诛魂记』第313章:泣血跪求"
這樣,
同時把得查詢的結構存到另外一個表中,並且得到
"http://tieba.baidu.com/p/4329505585" : "『诛魂记』第313章:泣血跪求"
中的連接 http://tieba.baidu.com/p/4329505585
最近開始在接觸一些爬蟲相關的東西,想自己做個東西出來,實在是捉急了。
下面是python裡面的程式碼
def craw(self, root_urls):
for new_url in root_urls:
html_cont = self.downloader.download(new_url)
new_chapter_urls, new_linkdatas = self.parser.parselink(root_chapter_url, html_cont)
mid_data = zip(new_chapter_urls,new_linkdatas)
mid_mid_datas = dict((new_chapter_urls,new_linkdatas) for new_chapter_urls,new_linkdatas in mid_data)
c = pymongo.MongoClient(host='127.0.0.1', port=27017)
db = c.spider
db.chapter_datas.insert(mid_mid_datas, check_keys=False)
某草草2017-05-02 09:19:52
為什麼不在抓取的時候直接根據data裡面的內容是否包含「『誅魂記』」來過濾一下呢?
>>> s = "『诛魂记』第331章:圣东王府"
>>> "『诛魂记』" in s
True
>>> s = "新年快乐啦啦啦"
>>> "『诛魂记』" in s
False