ホームページ >テクノロジー周辺機器 >AI >Lightrag:GraphRagに代わるシンプルで高速

Lightrag:GraphRagに代わるシンプルで高速

Jennifer Aniston
Jennifer Anistonオリジナル
2025-03-08 10:42:11805ブラウズ

lightrag:軽量検索生成システム

大規模な言語モデル(LLM)は急速に進化していますが、外部の知識を効果的に統合することは依然として重要なハードルです。 検索された生成(RAG)技術は、生成中に関連情報を組み込むことにより、LLM出力を改善することを目的としています。ただし、従来のRAGシステムは複雑でリソース集中的なものです。 HKU Data Science Labは、より効率的な代替手段であるLightragでこれに対処しています。 Lightragは、知識グラフの力とベクトル検索を組み合わせて、データ内の構造化された関係を維持しながらテキスト情報の効率的な処理を可能にします。

キー学習ポイント:

伝統的なぼろきれの制限とLightragの必要性。
  • Lightragのアーキテクチャ:デュアルレベルの検索およびグラフベースのテキストインデックス。
  • グラフ構造とベクトル埋め込みの統合効率的でコンテキストが豊富な検索。 さまざまなドメインのGraphRagと比較したLightragのパフォーマンス。
  • なぜlightragが伝統的なぼろを上回るのか:
従来のRAGシステムは、しばしばデータポイント間の複雑な関係と格闘し、断片化された応答をもたらします。 彼らは、文脈上の理解がない、シンプルでフラットデータ表現を使用しています。 たとえば、大気質や公共交通機関に対する電気自動車の影響に関する質問は、各トピックに個別の結果をもたらし、有意義に接続できない場合があります。 Lightragはこの制限に対処します

lightragの機能:

Lightragは、グラフベースのインデックス作成と、複雑なクエリに対する効率的かつコンテキストが豊富な応答のために、デュアルレベルの検索メカニズムを使用します。

グラフベースのテキストインデックス:

LightRAG: Simple and Fast Alternative to GraphRAG

このプロセスには:

チャンキング:LightRAG: Simple and Fast Alternative to GraphRAGドキュメントをより小さなセグメントに分割します。

エンティティ認識:
    llmsを使用して、エンティティ(名前、日付など)とその関係を識別および抽出します。
  1. 知識グラフの構築:エンティティ間の接続を表す知識グラフの構築。 最適化のために冗長性が削除されます
  2. ストレージの埋め込み:ベクトルデータベースにベクトルとして説明と関係を保存します。>
  3. デュアルレベルの検索:
  4. Lightragは、2つの検索レベルを採用しています
    1. 低レベルの検索:特定のエンティティとその属性または接続に焦点を当てています。 詳細な特定のデータを取得します
    2. ハイレベルの検索:より広範な概念とテーマに対処します。 複数のエンティティにまたがる情報を収集し、包括的な概要を提供します
    lightrag vs. graphrag:

    GraphRagは、コミュニティベースのトラバーサル法により、高いトークン消費と多数のLLM API呼び出しに苦しんでいます。 lightragは、チャンクの代わりにベクトルベースの検索および取得エンティティ/関係を使用して、このオーバーヘッドを大幅に削減します。

    lightragパフォーマンスベンチマーク:

    Lightragは、4つのドメイン(農業、コンピューターサイエンス、法律、および混合)にわたって評価のためにGPT-4O-MINIを使用して他のRAGシステムに対してベンチマークされました。 Lightragは、特に多様性、特により大きな法的データセットで、一貫してベースラインを上回っていました。 これは、多様で豊富な応答を生成する能力を強調しています。

    ハンズオンPython実装(Google Colab):

    次の手順では、OpenAIモデルを使用した基本的な実装の概要を説明します。 ステップ1:ライブラリをインストール

    ステップ2:ライブラリをインポートし、APIキーを設定します

    !pip install lightrag-hku aioboto3 tiktoken nano_vectordb
    !sudo apt update
    !sudo apt install -y pciutils
    !pip install langchain-ollama
    !curl -fsSL https://ollama.com/install.sh | sh
    !pip install ollama==0.4.2

    ステップ3:Lightragを初期化し、データをロードします

    from lightrag import LightRAG, QueryParam
    from lightrag.llm import gpt_4o_mini_complete
    import os
    os.environ['OPENAI_API_KEY'] = '' # Replace with your key
    import nest_asyncio
    nest_asyncio.apply()

    ステップ4&5:Querying(ハイブリッドモードとナイーブモード)(元のテキストで提供されている例)

    WORKING_DIR = "./content"
    if not os.path.exists(WORKING_DIR):
        os.mkdir(WORKING_DIR)
    rag = LightRAG(working_dir=WORKING_DIR, llm_model_func=gpt_4o_mini_complete)
    with open("./Coffe.txt") as f: # Replace with your data file
        rag.insert(f.read())

    結論:

    Lightragは、複雑な関係と文脈的理解を処理する際の制限に対処することにより、従来のRAGシステムを大幅に改善します。 そのグラフベースのインデックス作成とデュアルレベルの検索は、より包括的で関連性のある応答につながり、フィールドでの貴重な進歩となります。

    キーテイクアウト:

    Lightragは、相互接続された情報の統合における従来のぼろきれの制限を克服します

    その二重レベルの検索システムは、特定のクエリと幅広いクエリの両方に適応します。

    エンティティ認識と知識グラフ構造情報の検索を最適化します グラフ構造とベクトル埋め込みの組み合わせにより、コンテキストの理解が向上します。

    よくある質問:
  • (元のテキストに似ていますが、簡潔さのために言い換えられます)(このセクションは、オリジナルと同様にここに含まれます。)
  • (注:画像URLは変更されていません。)

以上がLightrag:GraphRagに代わるシンプルで高速の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。