検索
ホームページバックエンド開発Python チュートリアル100 行を超えるデータベースの書き方を教えます

100 行を超えるデータベースの書き方を教えます

Oct 18, 2016 pm 02:40 PM
pythonパフォーマンスデータベース

この記事では、中国の IT ベテラン向けに作成されたシンプルなデータベースを紹介します。これは、私たちが使用しているデータベースほど強力ではありませんが、学ぶ価値があります。特定の環境で使用でき、より柔軟で便利です。

データベースの名前は WawaDB で、Python で実装されています。これは、Python が非常に強力であることを示しています。

はじめに

ログの要件は一般的に次のとおりです:

変更ではなく追加のみ、書き込みは時系列順に書き込まれます。

大量の書き込み、少量の読み取り、およびクエリは一般にデータをクエリします。

MongoDB MongoDB の固定コレクションはこの要件を十分に満たしていますが、MongoDB は比較的大量のメモリを占有するため、モグラ塚を大騒ぎしているような気分になります。

WawaDB のアイデアは、1,000 個のログが書き込まれるたびに、現在の時刻とログ ファイルのオフセットをインデックス ファイルに記録することです。

次に、時間ごとにログをクエリする場合は、まずインデックスをメモリにロードし、二分法を使用して時点のオフセットを見つけてから、ログ ファイルを開いて指定された場所をシークします。これにより、データがユーザーに提供されます。ログ ファイル全体を走査することなく、ニーズをすばやく見つけて読み取ることができます。

パフォーマンス

Core 2 P8400、2.26GHZ、2Gメモリ、32ビットwin7

書き込みテスト:

1分間に10,000個のデータの書き込みをシミュレート、合計5時間のデータを書き込み、300万個のデータを挿入、各データは 54 文字で、所要時間は 2 分 51 秒です


読み取りテスト: 指定された期間内に特定の部分文字列を含むログを読み取ります

データ範囲走査データ量結果数値時間 (秒)

5時間 300万 604 6.6

2時間 120万 225 2.7

1時間 600,096 1.3

30分 300,044 0.6

インデックス

で、おそらくログに記録された時間をインデックスするだけです。実装, 二分探索は明らかに B ツリーほど効率的ではありませんが、一般的には一桁劣ることはなく、実装は非常に簡単です。

これはスパースインデックスであるため、すべてのログにそのオフセットを記録するインデックスがあるわけではないため、データを読み取るときは、読み取りミスを防ぐためにさらにデータを前方に読み取り、実際に必要なデータを読み取るまで待つ必要があります。ユーザー。

以下に示すように、たとえば、ユーザーが 25 から 43 までのログを読みたい場合、二分法を使用して 25 を見つけ、30 が位置する点を見つけます。

インデックス: 0 10 20 30 40 50 Log : |......|.......|..........|.......|....... ...|>>>a = [0 , 10, 20, 30, 40, 50]>>>bisect.bisect_left(a, 35)>>>3>>>a[3]>>>30>> >bisect.bisect_left(a, 43)>> >5>>>a[5]>>50

したがって、少し先に進んで 20 からログを読み始める必要があります (21 を読み取った後)。 、22、23、24は25 Smallより大きいため、25、26、27、...を読み取った後、ユーザーに戻ります

40(前のスケールの50)を読み取った後、それはです。現在のデータが 43 より大きいかどうかを判断する必要があります。43 より大きい場合 (全開間隔でデータを返す)、読み取りを停止する必要があります。

全体として、私たちは大きなファイルのほんの一部を操作して、ユーザーが必要とするデータを取得しただけです。

バッファ

ログを書き込む際の大量のディスク書き込みを減らすために、追加ログのインデックス作成時のバッファは 10k に設定されます。システムのデフォルトは 4k です。

同様に、ログの読み取り効率を向上させるために、読み取りバッファーも 10k に設定されており、ログのサイズに応じて適切に調整する必要があります。

インデックスの読み取りと書き込みは行バッファーに設定されており、不完全なインデックス行が読み取られるのを防ぐために、すべての完全な行をディスクにフラッシュする必要があります (実際、行バッファーを設定しても、行バッファーの半分は-描画された行は引き続き読み取ることができます)。

お問い合わせ

何ですか? SQL をサポートするには、問題を起こすのはやめてください。100 行のコードで SQL をサポートできるでしょうか?

これで、システムが指定された時間範囲内でデータ行を走査すると、ユーザーのラムダ条件が満たされた場合にのみクエリがユーザーに返されます。

もちろん、これはユーザーが必要としない大量のデータを読み取ることになり、各行をラムダ式で計算する必要がありますが、それは仕方がありません、シンプルさは美しいです。

以前は、クエリが必要な条件、ログ時刻、ログファイルのオフセットをインデックスに記録し、インデックスから条件を満たすオフセットを見つけて、各データをログ ファイル内で 1 回検索され、1 回読み取られます。これには、読み取られるデータ量が少ないという利点が 1 つだけありますが、欠点が 2 つあります:

インデックス ファイルが非常に大きく、メモリにロードするのが不便です

毎回最初にシークする必要があります。バッファは使用されていないようで、非常に遅く、データのセグメントを連続的に読み取ってラムダフィルタリングを使用するよりも4〜5倍遅くなります

書き込み

データであり、各ログ行の先頭はタイムスタンプです。

マルチスレッド


クエリデータは複数のスレッドで同時にクエリできるため、複数の並列読み取りが競合することはありません。

書き込みに関しては、単なる追加操作ではありますが、複数のスレッドでファイルを追加しても安全かどうかは確認されていないため、キューと書き込み専用のスレッドを使用することをお勧めします。

鍵はありません。

並べ替え

デフォルトでは、クエリされたデータは時系列順に並べられます。他の並べ替えが必要な場合は、メモリに取得した後、Python のsorted 関数を使用して任意に並べ替えることができます。


100行を超えるデータベースコード

# -*- coding:utf-8 -*-
import os
import time
import bisect
import itertools
from datetime import datetime
import logging
  
default_data_dir = './data/'
default_write_buffer_size = 1024*10
default_read_buffer_size = 1024*10
default_index_interval = 1000
  
def ensure_data_dir():
    if not os.path.exists(default_data_dir):
        os.makedirs(default_data_dir)
  
def init():
    ensure_data_dir()
  
class WawaIndex:
    def __init__(self, index_name):
        self.fp_index = open(os.path.join(default_data_dir, index_name + '.index'), 'a+', 1)
        self.indexes, self.offsets, self.index_count = [], [], 0
        self.__load_index()
  
    def __update_index(self, key, offset):
        self.indexes.append(key)
        self.offsets.append(offset)
  
    def __load_index(self):
        self.fp_index.seek(0)
        for line in self.fp_index:
            try:
                key, offset  = line.split()
                self.__update_index(key, offset)
            except ValueError: # 索引如果没有flush的话,可能读到有半行的数据
                pass
  
    def append_index(self, key, offset):
        self.index_count += 1
        if self.index_count % default_index_interval == 0:
            self.__update_index(key, offset)
            self.fp_index.write('%s %s %s' % (key, offset, os.linesep))
  
    def get_offsets(self, begin_key, end_key):
        left = bisect.bisect_left(self.indexes, str(begin_key))
        right = bisect.bisect_left(self.indexes, str(end_key))
        left, right = left - 1, right - 1
        if left < 0: left = 0
        if right < 0: right = 0
        if right > len(self.indexes) - 1: right = len(self.indexes) - 1
        logging.debug(&#39;get_index_range:%s %s %s %s %s %s&#39;, self.indexes[0], self.indexes[-1], begin_key, end_key, left, right)
        return self.offsets[left], self.offsets[right]
  
  
class WawaDB:
    def __init__(self, db_name):
        self.db_name = db_name
        self.fp_data_for_append = open(os.path.join(default_data_dir, db_name + &#39;.db&#39;), &#39;a&#39;, default_write_buffer_size)
        self.index = WawaIndex(db_name)
  
    def __get_data_by_offsets(self, begin_key, end_key, begin_offset, end_offset):
        fp_data = open(os.path.join(default_data_dir, self.db_name + &#39;.db&#39;), &#39;r&#39;, default_read_buffer_size)
        fp_data.seek(int(begin_offset))
          
        line = fp_data.readline()
        find_real_begin_offset = False
        will_read_len, read_len = int(end_offset) - int(begin_offset), 0
        while line:
            read_len += len(line)
            if (not find_real_begin_offset) and  (line < str(begin_key)):
                line = fp_data.readline()
                continue
            find_real_begin_offset = True
            if (read_len >= will_read_len) and (line > str(end_key)): break
            yield line.rstrip(&#39;\r\n&#39;)
            line = fp_data.readline()
  
    def append_data(self, data, record_time=datetime.now()):
        def check_args():
            if not data:
                raise ValueError(&#39;data is null&#39;)
            if not isinstance(data, basestring):
                raise ValueError(&#39;data is not string&#39;)
            if data.find(&#39;\r&#39;) != -1 or data.find(&#39;\n&#39;) != -1:
                raise ValueError(&#39;data contains linesep&#39;)
  
        check_args()
          
        record_time = time.mktime(record_time.timetuple())
        data = &#39;%s %s %s&#39; % (record_time, data, os.linesep)
        offset = self.fp_data_for_append.tell()
        self.fp_data_for_append.write(data)
        self.index.append_index(record_time, offset)
  
    def get_data(self, begin_time, end_time, data_filter=None):
        def check_args():
            if not (isinstance(begin_time, datetime) and isinstance(end_time, datetime)):
                raise ValueError(&#39;begin_time or end_time is not datetime&#39;)
  
        check_args()
  
        begin_time, end_time = time.mktime(begin_time.timetuple()), time.mktime(end_time.timetuple())
        begin_offset, end_offset = self.index.get_offsets(begin_time, end_time)
  
        for data in self.__get_data_by_offsets(begin_time, end_time, begin_offset, end_offset):
            if data_filter:
                if data_filter(data):
                    yield data
            else:
                yield data
  
def test():
    from datetime import datetime, timedelta
    import uuid, random
    logging.getLogger().setLevel(logging.NOTSET)
  
    def time_test(test_name):
        def inner(f):
            def inner2(*args, **kargs):
                start_time = datetime.now()
                result = f(*args, **kargs)
                print &#39;%s take time:%s&#39; % (test_name, (datetime.now() - start_time))
                return result
            return inner2
        return inner
  
    @time_test(&#39;gen_test_data&#39;)   
    def gen_test_data(db):
        now = datetime.now()
        begin_time = now - timedelta(hours=5)
        while begin_time < now:
            print begin_time
            for i in range(10000):
                db.append_data(str(random.randint(1,10000))+ &#39; &#39; +str(uuid.uuid1()), begin_time)
            begin_time += timedelta(minutes=1)
      
    @time_test(&#39;test_get_data&#39;)   
    def test_get_data(db):
        begin_time = datetime.now() - timedelta(hours=3)
        end_time = begin_time + timedelta(minutes=120)
        results = list(db.get_data(begin_time, end_time, lambda x: x.find(&#39;1024&#39;) != -1))
        print &#39;test_get_data get %s results&#39; % len(results)
  
    @time_test(&#39;get_db&#39;)   
    def get_db():
        return WawaDB(&#39;test&#39;)
  
    if not os.path.exists(&#39;./data/test.db&#39;):
        db = get_db()
        gen_test_data(db)
        #db.index.fp_index.flush()
    
    db = get_db()
    test_get_data(db)
  
init()
  
if __name__ == &#39;__main__&#39;:
    test()


声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
Python vs. C:比較されたアプリケーションとユースケースPython vs. C:比較されたアプリケーションとユースケースApr 12, 2025 am 12:01 AM

Pythonは、データサイエンス、Web開発、自動化タスクに適していますが、Cはシステムプログラミング、ゲーム開発、組み込みシステムに適しています。 Pythonは、そのシンプルさと強力なエコシステムで知られていますが、Cは高性能および基礎となる制御機能で知られています。

2時間のPython計画:現実的なアプローチ2時間のPython計画:現実的なアプローチApr 11, 2025 am 12:04 AM

2時間以内にPythonの基本的なプログラミングの概念とスキルを学ぶことができます。 1.変数とデータ型、2。マスターコントロールフロー(条件付きステートメントとループ)、3。機能の定義と使用を理解する4。

Python:主要なアプリケーションの調査Python:主要なアプリケーションの調査Apr 10, 2025 am 09:41 AM

Pythonは、Web開発、データサイエンス、機械学習、自動化、スクリプトの分野で広く使用されています。 1)Web開発では、DjangoおよびFlask Frameworksが開発プロセスを簡素化します。 2)データサイエンスと機械学習の分野では、Numpy、Pandas、Scikit-Learn、Tensorflowライブラリが強力なサポートを提供します。 3)自動化とスクリプトの観点から、Pythonは自動テストやシステム管理などのタスクに適しています。

2時間でどのくらいのPythonを学ぶことができますか?2時間でどのくらいのPythonを学ぶことができますか?Apr 09, 2025 pm 04:33 PM

2時間以内にPythonの基本を学ぶことができます。 1。変数とデータ型を学習します。2。ステートメントやループの場合などのマスター制御構造、3。関数の定義と使用を理解します。これらは、簡単なPythonプログラムの作成を開始するのに役立ちます。

プロジェクトの基本と問題駆動型の方法で10時間以内にコンピューター初心者プログラミングの基本を教える方法は?プロジェクトの基本と問題駆動型の方法で10時間以内にコンピューター初心者プログラミングの基本を教える方法は?Apr 02, 2025 am 07:18 AM

10時間以内にコンピューター初心者プログラミングの基本を教える方法は?コンピューター初心者にプログラミングの知識を教えるのに10時間しかない場合、何を教えることを選びますか...

中間の読書にどこでもfiddlerを使用するときにブラウザによって検出されないようにするにはどうすればよいですか?中間の読書にどこでもfiddlerを使用するときにブラウザによって検出されないようにするにはどうすればよいですか?Apr 02, 2025 am 07:15 AM

fiddlereveryversings for the-middleの測定値を使用するときに検出されないようにする方法

Python 3.6にピクルスファイルをロードするときに「__Builtin__」モジュールが見つからない場合はどうすればよいですか?Python 3.6にピクルスファイルをロードするときに「__Builtin__」モジュールが見つからない場合はどうすればよいですか?Apr 02, 2025 am 07:12 AM

Python 3.6のピクルスファイルのロードレポートエラー:modulenotFounderror:nomodulenamed ...

風光明媚なスポットコメント分析におけるJieba Wordセグメンテーションの精度を改善する方法は?風光明媚なスポットコメント分析におけるJieba Wordセグメンテーションの精度を改善する方法は?Apr 02, 2025 am 07:09 AM

風光明媚なスポットコメント分析におけるJieba Wordセグメンテーションの問題を解決する方法は?風光明媚なスポットコメントと分析を行っているとき、私たちはしばしばJieba Wordセグメンテーションツールを使用してテキストを処理します...

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

mPDF

mPDF

mPDF は、UTF-8 でエンコードされた HTML から PDF ファイルを生成できる PHP ライブラリです。オリジナルの作者である Ian Back は、Web サイトから「オンザフライ」で PDF ファイルを出力し、さまざまな言語を処理するために mPDF を作成しました。 HTML2FPDF などのオリジナルのスクリプトよりも遅く、Unicode フォントを使用すると生成されるファイルが大きくなりますが、CSS スタイルなどをサポートし、多くの機能強化が施されています。 RTL (アラビア語とヘブライ語) や CJK (中国語、日本語、韓国語) を含むほぼすべての言語をサポートします。ネストされたブロックレベル要素 (P、DIV など) をサポートします。

DVWA

DVWA

Damn Vulnerable Web App (DVWA) は、非常に脆弱な PHP/MySQL Web アプリケーションです。その主な目的は、セキュリティ専門家が法的環境でスキルとツールをテストするのに役立ち、Web 開発者が Web アプリケーションを保護するプロセスをより深く理解できるようにし、教師/生徒が教室環境で Web アプリケーションを教え/学習できるようにすることです。安全。 DVWA の目標は、シンプルでわかりやすいインターフェイスを通じて、さまざまな難易度で最も一般的な Web 脆弱性のいくつかを実践することです。このソフトウェアは、

SecLists

SecLists

SecLists は、セキュリティ テスターの究極の相棒です。これは、セキュリティ評価中に頻繁に使用されるさまざまな種類のリストを 1 か所にまとめたものです。 SecLists は、セキュリティ テスターが必要とする可能性のあるすべてのリストを便利に提供することで、セキュリティ テストをより効率的かつ生産的にするのに役立ちます。リストの種類には、ユーザー名、パスワード、URL、ファジング ペイロード、機密データ パターン、Web シェルなどが含まれます。テスターはこのリポジトリを新しいテスト マシンにプルするだけで、必要なあらゆる種類のリストにアクセスできるようになります。

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。