Heim  >  Artikel  >  Backend-Entwicklung  >  Verwenden von MongoDB zum Speichern von Crawler-Daten in Python

Verwenden von MongoDB zum Speichern von Crawler-Daten in Python

大家讲道理
大家讲道理Original
2016-11-09 11:20:361244Durchsuche

Jetzt baue ich eine einfache Suchmaschine auf und verwende Toutiao-Nachrichtendaten als Datenquelle. Diese Daten sind unstrukturiert und eignen sich besser für die Speicherung in MongoDB.

Das Folgende ist ein einfaches Anwendungsbeispiel.

#!/usr/bin/python
# -*- coding:utf-8 -*-
 
import pymongo
 
class documentManager(object):
    def __init__(self):
        pass
 
    def connect_mongo(self):
        client = pymongo.Connection("127.0.0.1",27017)
        db = client.data_db
        collection = db.data_collection
        mydict = {"name":"Lucy", "sex":"female","job":"nurse"}
        collection.insert(mydict)
 
        for i in collection.find({"name":"Lucy"}):
            print i
 
if __name__ == '__main__':
    manager = documentManager()
    manager.connect_mongo()


Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn