搜尋
首頁web前端js教程對JavaScript的全文搜尋實現相關度評分的功能的方法_基礎知識

 全文搜索,與機器學習領域其他大多數問題不同,是一個 Web 程式設計師在日常工作中經常遇到的問題。客戶可能會要求你在某個地方提供一個搜尋框,然後你會寫一個類似 WHERE title LIKE %:query% 的 SQL 語句實作搜尋功能。一開始,這是沒問題,直到有一天,客戶找到你跟你說,「搜尋出錯啦!」

當然,實際上搜尋並沒有“出錯”,只是搜尋的結果並不是客戶想要的。一般的用戶並不清楚如何做精確匹配,所以得到的搜尋結果品質很差。為了解決問題,你決定使用全文搜尋。經過一陣枯燥的學習,你開啟了 MySQL 的 FULLTEXT 索引,並使用了更高級的查詢語法,如 “MATCH() … AGAINST()” 。


好了,問題解決,完結撒花!資料庫規模不大的時候是沒問題了。

但是當你的資料越來越多時,你會發現你的資料庫也越來越慢了。 MySQL 不是一個非常好用的全文搜尋工具。所以你決定使用 ElasticSearch,重構程式碼,並部署 Lucene 驅動的全文搜尋叢集。你會發現它工作的非常好,又快又準確。

這時你不禁會想:為什麼 Lucene 這麼屌呢?

本篇文章(主要介紹 TF-IDF,Okapi BM-25 和普通的相關性評分 )和 下一篇文章 (主要介紹索引)將為你講述全文搜索背後的基本概念。

相關性

對每一個搜尋查詢,我們很容易為每個文件定義一個「相關分數」。當使用者進行搜尋時,我們可以使用相關分數進行排序而不是使用文件出現時間來進行排序。這樣,最相關的文件將排在第一個,無論它是多久之前創建的(當然,有的時候和文件的創建時間也是有關的)。

有很多很多種計算文字之間相關性的方法,但是我們要從最簡單的、基於統計的方法說起。這種方法不需要理解語言本身,而是透過統計詞語的使用、匹配和基於文件中特有詞的普及率的權重等情況來決定「相關分數」。
 

這個演算法不關心詞語是名詞還是動詞,也不關心詞語的意義。它唯一關心的是哪些是常用詞,那些是稀有詞。如果一個搜尋語句中包含常用詞和稀有詞,你最好讓包含稀有詞的文件的評分高一些,同時降低常用詞的權重。

這個演算法被稱為Okapi BM25。它包含兩個基本概念詞語頻率(term frequency) 簡稱詞頻(“TF”) 和文檔頻率倒數(inverse document frequency) 簡稱為(“IDF”). 把它們放到一起,被稱為“TF-IDF” ,這是一種統計測度,用來表示一個字詞(term) 在文件中有多重要。

TF-IDF

詞語頻率( Term Frequency), 簡稱 “TF”, 是一個很簡單的度量標準:一個特定的詞語在文檔出現的次數。你可以把這個值除以該文件中字詞的總數,得到一個分數。例如文件中有 100 個字, ‘the' 這個字出現了 8 次,那麼 'the' 的 TF 為 8 或 8/100 或 8%(取決於你想怎麼表示它)。

逆向檔案頻率(Inverse Document Frequency), 簡稱 “IDF”,要複雜一些:一個字越稀有,這個值越高。它由總文件數目除以包含該詞語之文件的數目,再將得到的商取對數得到。越是稀有的詞,越會產生高的 “IDF”。

如果你將這兩個數字乘到一起 (TF*IDF), 你將會得到一個詞語在文檔中的權重。 「權重」的定義是:這個詞有多稀有並且在文件中出現的多麼頻繁?

你可以將這個概念用於文件的搜尋查詢。在查詢中的對於查詢中的每個關鍵字,計算他們的 TF-IDF 分數,並將它們加起來。得分最高的就是與查詢語句最符合的文件。

很酷吧!

Okapi BM25

上述演算法是一個可用的演算法,但並不太完美。它給出了一個基於統計的相關分數演算法,我們還可以進一步改進它。

Okapi BM25 是目前被認為最先進的排名演算法之一(所以被稱為 ElasticSearch )。 Okapi BM25 在 TF-IDF 的基礎上增加了兩個可調參數,k1 和 b,, 分別代表 “詞語頻率飽和度(term frequency saturation)” 和 “字段長度規則”。這是什麼鬼?

為了能直觀的理解“詞語頻率飽和度”,請想像兩篇差不多長度的討論棒球的文章。另外,我們假設所有文件(除去這兩篇)並沒有太多與棒球相關的內容,因此 “棒球” 這個詞將具有很高的 IDF - 它極稀少而且很重要。 這兩篇文章都是討論棒球的,而且都花了大量的篇幅討論它,但是其中一篇比另一篇更多的使用了“棒球”這個詞。那麼在這種情況,是否一篇文章真的比另一篇文章相差很多的分數呢?既然兩份兩份文件都是大篇幅討論棒球的,那麼「棒球」這個詞出現 40 次還是 80 次都是一樣的。事實上,30 次就該封頂囉!


這就是「字詞頻率飽和度。原生的TF-IDF 演算法沒有飽和的概念,所以出現80 次「棒球」的文檔要比出現40 次的得分高一倍。有些時候,這時我們所希望的,但有些時候我們不希望這樣。

此外,Okapi BM25 還有一個 k1 參數,它用來調節飽和度變化的速率。 k1 參數的值一般介於 1.2 到  2.0 之間。數值越低則飽和的過程越快速。 (意味著兩個上面兩個文件有相同的分數,因為他們都包含大量的“棒球”這個詞語)

欄位長度歸約(Field-length normalization)將文件的長度歸約化到全部文件的平均長度。這對於單一欄位集合(single-field collections)(例如 ours)很有用,可以將不同長度的文件統一到相同的比較條件。對於雙字段集合(例如 “title” 和 "body")更加有意義,它同樣可以將 title 和 body 字段統一到相同的比較條件上。字段長度歸約用 b 來表示,它的值在 0 和 1 之間,1 意味著全部歸約化,0 則不進行歸約化。

演算法

Okapi BM25 維基百科中你可以了解Okapi演算法的公式。既然都知道了式子中的每一項是什麼,這肯定是很容易就理解了。所以我們就不提公式,直接進入代碼:  

BM25.Tokenize = function(text) {
  text = text
    .toLowerCase()
    .replace(/\W/g, ' ')
    .replace(/\s+/g, ' ')
    .trim()
    .split(' ')
    .map(function(a) { return stemmer(a); });
 
  // Filter out stopStems
  var out = [];
  for (var i = 0, len = text.length; i < len; i++) {
    if (stopStems.indexOf(text[i]) === -1) {
      out.push(text[i]);
    }
  }
 
  return out;
};
我們定義了一個簡單的靜態方法Tokenize(),目的是為了解析字串到tokens的陣列中。就這樣,我們小寫所有的tokens(為了減少熵)。我們運行Porter Stemmer 演算法來減少熵的量同時也提高匹配程度(「walking」和"walk"匹配是相同的)。而且我們也過濾掉停用詞(很普通的詞)為了更近一步減少熵值。在我所寫的概念深入之前,如果我過於解釋這一節就請多擔待。

 

BM25.prototype.addDocument = function(doc) {
  if (typeof doc.id === 'undefined') { throw new Error(1000, 'ID is a required property of documents.'); };
  if (typeof doc.body === 'undefined') { throw new Error(1001, 'Body is a required property of documents.'); };
 
  // Raw tokenized list of words
  var tokens = BM25.Tokenize(doc.body);
 
  // Will hold unique terms and their counts and frequencies
  var _terms = {};
 
  // docObj will eventually be added to the documents database
  var docObj = {id: doc.id, tokens: tokens, body: doc.body};
 
  // Count number of terms
  docObj.termCount = tokens.length;
 
  // Increment totalDocuments
  this.totalDocuments++;
 
  // Readjust averageDocumentLength
  this.totalDocumentTermLength += docObj.termCount;
  this.averageDocumentLength = this.totalDocumentTermLength / this.totalDocuments;
 
  // Calculate term frequency
  // First get terms count
  for (var i = 0, len = tokens.length; i < len; i++) {
    var term = tokens[i];
    if (!_terms[term]) { 
      _terms[term] = {
        count: 0,
        freq: 0
      }; 
    };
    _terms[term].count++;
  }
 
  // Then re-loop to calculate term frequency.
  // We'll also update inverse document frequencies here.
  var keys = Object.keys(_terms);
  for (var i = 0, len = keys.length; i < len; i++) {
    var term = keys[i];
    // Term Frequency for this document.
    _terms[term].freq = _terms[term].count / docObj.termCount;
 
    // Inverse Document Frequency initialization
    if (!this.terms[term]) {
      this.terms[term] = {
        n: 0, // Number of docs this term appears in, uniquely
        idf: 0
      };
    }
 
    this.terms[term].n++;
  };
 
  // Calculate inverse document frequencies
  // This is SLOWish so if you want to index a big batch of documents,
  // comment this out and run it once at the end of your addDocuments run
  // If you're only indexing a document or two at a time you can leave this in.
  // this.updateIdf();
 
  // Add docObj to docs db
  docObj.terms = _terms;
  this.documents[docObj.id] = docObj;
};
這就是addDocument()這種方法會奇蹟般出現的地方。我們基本上建立和維護兩個類似的資料結構:this.documents.和this.terms。

 

this.documentsis 是一個保存著所有文檔的資料庫,它保存著文檔的全部原始文字,文檔的長度資訊和一個列表,列表裡面保存著文檔中的所有詞語和詞語的數量與出現頻率。使用這個資料結構,我們可以很容易的和快速的(是的,非常快速,只需要時間複雜度為O(1)的哈表查詢時間)回答如下問題:在文檔#3 中,'walk' 這個詞語出現了幾次?

我們在也使用了另一個資料結構,this.terms。它表示語料庫中的所有字詞。透過這個資料結構,我們可以在O(1)時間內回答以下問題:'walk' 這個字在多少個文件中出現過?他們的 id 是什麼?

最後,我們記錄了每個文件的長度,並記錄了整個語料庫中文件的平均長度。

注意,在上面的程式碼中, idf 被初始化 0,而且 updateidf() 方法被註解掉了。這是因為這個方法運行的非常慢,並且只需在建立索引之後運行一次就可以了。既然運行一次就能滿足需求,就沒有必要運行5000次。先把它註解掉,然後在大批量的索引作業之後執行,就可以節省很多時間。下面是這個函數的程式碼:
 

BM25.prototype.updateIdf = function() {
  var keys = Object.keys(this.terms);
  for (var i = 0, len = keys.length; i < len; i++) {
    var term = keys[i];
    var num = (this.totalDocuments - this.terms[term].n + 0.5);
    var denom = (this.terms[term].n + 0.5);
    this.terms[term].idf = Math.max(Math.log10(num / denom), 0.01);
  }
};
這是一個非常簡單的函數,但是由於它需要遍歷整個語料庫中的所有詞語,並更新所有詞語的值,這就導致它工作的就有點慢。這個方法的實現採用了逆向文檔頻率(inverse document frequency) 的標準公式(你可以在Wikipedia 上找到這個公式)—  由總文件數目除以包含該詞語之文件的數目,再將得到的商取對數得到。我做了一些修改,讓回傳值一直大於0。

 

BM25.prototype.search = function(query) {
 
  var queryTerms = BM25.Tokenize(query);
  var results = [];
 
  // Look at each document in turn. There are better ways to do this with inverted indices.
  var keys = Object.keys(this.documents);
  for (var j = 0, nDocs = keys.length; j < nDocs; j++) {
    var id = keys[j];
    // The relevance score for a document is the sum of a tf-idf-like
    // calculation for each query term.
    this.documents[id]._score = 0;
 
    // Calculate the score for each query term
    for (var i = 0, len = queryTerms.length; i < len; i++) {
      var queryTerm = queryTerms[i];
 
      // We've never seen this term before so IDF will be 0.
      // Means we can skip the whole term, it adds nothing to the score
      // and isn't in any document.
      if (typeof this.terms[queryTerm] === 'undefined') {
        continue;
      }
 
      // This term isn't in the document, so the TF portion is 0 and this
      // term contributes nothing to the search score.
      if (typeof this.documents[id].terms[queryTerm] === 'undefined') {
        continue;
      }
 
      // The term is in the document, let's go.
      // The whole term is :
      // IDF * (TF * (k1 + 1)) / (TF + k1 * (1 - b + b * docLength / avgDocLength))
 
      // IDF is pre-calculated for the whole docset.
      var idf = this.terms[queryTerm].idf;
      // Numerator of the TF portion.
      var num = this.documents[id].terms[queryTerm].count * (this.k1 + 1);
      // Denomerator of the TF portion.
      var denom = this.documents[id].terms[queryTerm].count 
        + (this.k1 * (1 - this.b + (this.b * this.documents[id].termCount / this.averageDocumentLength)));
 
      // Add this query term to the score
      this.documents[id]._score += idf * num / denom;
    }
 
    if (!isNaN(this.documents[id]._score) && this.documents[id]._score > 0) {
      results.push(this.documents[id]);
    }
  }
 
  results.sort(function(a, b) { return b._score - a._score; });
  return results.slice(0, 10);
};

最後,search() 方法遍歷所有的文檔,並給出每個文檔的 BM25 分數,然後按照由大到小的順序進行排序。當然了,在搜尋過程中遍歷語料庫中的每個文檔實是不明智。這個問題在 Part Two (反向索引和效能)中得到解決。


上面的程式碼已經做了很好的註釋,其要點如下:為每個文件和每個字詞計算 BM25 分數。字詞的 idf 分數已經預先計算好了,使用的時候只需要查詢即可。詞語頻率作為文檔屬性的一部分也已經預先計算好了。之後只需要簡單的四則運算即可。最後為每個文件增加一個臨時變數 _score,然後根據 score 做降序排列並傳回前 10 個結果。
範例,原始程式碼,注意事項和下一步計劃

上面的範例有很多方法可以優化,我們將在 “全文搜尋”的第二部分中介紹它們,歡迎繼續收看。我希望我能在幾個星期之後完成它。下面列了下次將要提到的內容:

  •     反向索引與快速搜尋
  •     快速索引
  •     更好的搜尋結果

為了這個演示,我編了一個小的維基百科爬蟲,爬到相當多(85000)維基百科文章的第一段。由於索引到所有85K檔案需要90秒左右,在我的電腦我已經削減了一半。不想讓你們僅僅為了一個簡單的全文本演示浪費你的筆記型電腦電量。

因為索引是一個繁重的、模組化的CPU操作,我把它當成一個網路工作者。索引運行在一個後台執行緒上--在這裡你可以找到完整的原始碼。你也會發現到詞幹演算法和我的停用詞列表中的原始碼參考。至於代碼許可,還是一如既往為教育目的而免費,而不用於任何商業目的。

最後是示範。一旦索引完成,嘗試尋找隨機的東西和短語,維基百科會知道的。注意,只有40000段的索引,所以你可能要嘗試一些新的主題。

陳述
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
Python vs. JavaScript:開發人員的比較分析Python vs. JavaScript:開發人員的比較分析May 09, 2025 am 12:22 AM

Python和JavaScript的主要區別在於類型系統和應用場景。 1.Python使用動態類型,適合科學計算和數據分析。 2.JavaScript採用弱類型,廣泛用於前端和全棧開發。兩者在異步編程和性能優化上各有優勢,選擇時應根據項目需求決定。

Python vs. JavaScript:選擇合適的工具Python vs. JavaScript:選擇合適的工具May 08, 2025 am 12:10 AM

選擇Python還是JavaScript取決於項目類型:1)數據科學和自動化任務選擇Python;2)前端和全棧開發選擇JavaScript。 Python因其在數據處理和自動化方面的強大庫而備受青睞,而JavaScript則因其在網頁交互和全棧開發中的優勢而不可或缺。

Python和JavaScript:了解每個的優勢Python和JavaScript:了解每個的優勢May 06, 2025 am 12:15 AM

Python和JavaScript各有優勢,選擇取決於項目需求和個人偏好。 1.Python易學,語法簡潔,適用於數據科學和後端開發,但執行速度較慢。 2.JavaScript在前端開發中無處不在,異步編程能力強,Node.js使其適用於全棧開發,但語法可能複雜且易出錯。

JavaScript的核心:它是在C還是C上構建的?JavaScript的核心:它是在C還是C上構建的?May 05, 2025 am 12:07 AM

javascriptisnotbuiltoncorc; sanInterpretedlanguagethatrunsonenginesoftenwritteninc.1)JavascriptwasdesignedAsignedAsalightWeight,drackendedlanguageforwebbrowsers.2)Enginesevolvedfromsimpleterterpretpretpretpretpreterterpretpretpretpretpretpretpretpretpretcompilerers,典型地,替代品。

JavaScript應用程序:從前端到後端JavaScript應用程序:從前端到後端May 04, 2025 am 12:12 AM

JavaScript可用於前端和後端開發。前端通過DOM操作增強用戶體驗,後端通過Node.js處理服務器任務。 1.前端示例:改變網頁文本內容。 2.後端示例:創建Node.js服務器。

Python vs. JavaScript:您應該學到哪種語言?Python vs. JavaScript:您應該學到哪種語言?May 03, 2025 am 12:10 AM

選擇Python還是JavaScript應基於職業發展、學習曲線和生態系統:1)職業發展:Python適合數據科學和後端開發,JavaScript適合前端和全棧開發。 2)學習曲線:Python語法簡潔,適合初學者;JavaScript語法靈活。 3)生態系統:Python有豐富的科學計算庫,JavaScript有強大的前端框架。

JavaScript框架:為現代網絡開發提供動力JavaScript框架:為現代網絡開發提供動力May 02, 2025 am 12:04 AM

JavaScript框架的強大之處在於簡化開發、提升用戶體驗和應用性能。選擇框架時應考慮:1.項目規模和復雜度,2.團隊經驗,3.生態系統和社區支持。

JavaScript,C和瀏覽器之間的關係JavaScript,C和瀏覽器之間的關係May 01, 2025 am 12:06 AM

引言我知道你可能會覺得奇怪,JavaScript、C 和瀏覽器之間到底有什麼關係?它們之間看似毫無關聯,但實際上,它們在現代網絡開發中扮演著非常重要的角色。今天我們就來深入探討一下這三者之間的緊密聯繫。通過這篇文章,你將了解到JavaScript如何在瀏覽器中運行,C 在瀏覽器引擎中的作用,以及它們如何共同推動網頁的渲染和交互。 JavaScript與瀏覽器的關係我們都知道,JavaScript是前端開發的核心語言,它直接在瀏覽器中運行,讓網頁變得生動有趣。你是否曾經想過,為什麼JavaScr

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

WebStorm Mac版

WebStorm Mac版

好用的JavaScript開發工具

Dreamweaver Mac版

Dreamweaver Mac版

視覺化網頁開發工具