ホームページ  >  記事  >  バックエンド開発  >  大量のキーワードのマッチングを最適化する

大量のキーワードのマッチングを最適化する

炎欲天舞
炎欲天舞オリジナル
2017-08-21 10:19:243642ブラウズ


問題の原因

私は数日前に仕事で問題に遭遇しました:

600,000の短いメッセージログがあり、それぞれ約50ワード、50,000のキーワード、長さは2~8ワードで、そのほとんどは中国人。この60万件のレコードに含まれるすべてのキーワードを抽出し、キーワードごとにヒット数をカウントする必要があります。

この記事では、大量のキーワードのマッチングを最適化する0 時間実行する必要があるタスクを 大量のキーワードのマッチングを最適化する0 分以内に最適化する方法を確認するための私の実装方法を完全に紹介します。実装言語は PHP ですが、この記事で紹介したその他のアイデアが役立つはずです。

オリジナル – grep

デザイン

最初にこのタスクを受け取ったとき、私の小さな心はすぐに ログ + キーワード + 統計 に向かいました。自分でコードを書くことは考えませんでしたが、最初に Linux でよく使われるプログラムを実行することを考えました。ログ統計コマンド grepgrep

grep命令的用法不再多提,使用 grep 'keyword' | wc -l 可以很方便地进行统计关键词命中的信息条数,而php的 exec() 函数允许我们直接调用 linux 的 shell 命令,虽然这样执行危险命令时会有安全隐患。

代码

上伪代码:

foreach ($word_list as $keyword) {
    $count = intval(exec("grep '{$keyword}' file.log | wc -l"));
    record($keyword, $count);
}

在一台老机器上跑的,话说老机器效率真的差,跑了6小时。估计最新机器2-3小时吧,后面的优化都使用的新机器,而且需求又有变动,正文才刚刚开始。

原始,原始在想法和方法

进化 – 正则

设计

交了差之后,第二天产品又提出了新的想法,说以后想把某数据源接入进来,消息以数据流的形式传递,而不再是文件了。而且还要求了消息统计的实时性,一下把我想把数据写到文件再统计的想法也推翻了,为了方案的可扩展性,现在的统计对象不再是一个整体,而是要考虑拿n个单条的消息来匹配了。

这时,略懵的我只好祭出了最传统的工具- 正则。正则的实现也不难,各个语言也都封装好了正则匹配函数,重点是模式(pattern)的构建。

当然这里的模式构建也不难,/keyword大量のキーワードのマッチングを最適化する|keword2|.../,用|将关键词连接起来即可。

正则小坑

这里介绍两个使用中遇到的小坑:

  • 正则模式长度太长导致匹配失败:PHP 的正则有回溯限制,以防止消耗掉所有的进程可用堆栈, 最终导致 php 崩溃。太长的模式会导致 PHP 检测到回溯过多,中断匹配,经测试默认设置时最大模式长度为 32000 字节 左右。php.ini 内 pcre.backtrack_limit 参数为最大回溯次数限制,默认值为 大量のキーワードのマッチングを最適化する000000,修改或 php.ini 或在脚本开始时使用 ini_set(‘pcre.backtrack_limit’, n); 将其设置为一个较大的数可以提高单次匹配最大模式长度。当然也可以将关键词分批统计(我用了这个=_=)。

  • 模式中含有特殊字符导致大量warning:匹配过程中发现 PHP 报出大量 warning:unknown modifier <strong>乱码</strong>,仔细检查发现关键词中有/字符,可以使用preg_quote()函数过滤一遍关键词即可。

代码

上伪代码:

$end = 0;
$step = 大量のキーワードのマッチングを最適化する500;
$pattern = array();
// 先将pattern 拆成多个小块
while ($end < count($word_list)) {
    $tmp_arr = array_slice($word_list, $end, $step);
    $end += $step;
    $item = implode(&#39;|&#39;, $tmp_arr);
    $pattern[] = preg_quote($item);
}
 
$content = file_get_contents($log_file);
$lines = explode("\n", $content);
foreach ($lines as $line) {
    // 使用各小块pattern分别匹配
    for ($i = 0; $i < count($pattern); $i++) {
        preg_match_all("/{$pattern[$i]}/", $line, $match);
    }
    $match = array_unique(array_filter($match));
    dealResult($match);
}

为了完成任务,硬着头皮进程跑了一夜。当第二天我发现跑了近十个小时的时候内心是崩溃的。。。太慢了,完全达不到使用要求,这时,我已经开始考虑改换方法了。

当产品又改换了关键词策略,替换了一些关键词,要求重新运行一遍,并表示还会继续优化关键词时,我完全否定了现有方案。绝对不能用关键词去匹配信息,这样一条一条用全部关键词去匹配,效率实在是不可忍受。

进化,需求和实现的进化

觉醒 – 拆词

设计

我终于开始意识到要拿信息去关键词里对比。如果我用关键词为键建立一个 hash 表,用信息里的词去 hash 表里查找,如果查到就认为匹配命中,这样不是能达到 O(大量のキーワードのマッチングを最適化する) 的效率了么?

可是一条短消息,我如何把它拆分为刚好的词去匹配呢,分词?分词也是需要时间的,而且我的关键词都是些无语义的词,构建词库、使用分词工具又是很大的问题,最终我想到 拆词

🎜grep🎜 このコマンドの使用法については改めて説明しません。🎜grep 'keyword' | wc -l🎜 を使用して、キーワード ヒットの情報バーを簡単にカウントします。 . Number と、PHP の 🎜exec()🎜 関数を使用すると、Linux シェル コマンドを直接呼び出すことができますが、危険なコマンドを実行するとセキュリティ上のリスクが発生します。 🎜🎜コード🎜🎜上記の疑似コード: 🎜
$str_list = getStrList($msg);
foreach ($str_list as $str) {
    $keywords = getKeywords($str);
    foreach ($keywords as $keyword) {
        // 直接通过PHP数组的哈希实现来进行快速查找
        if (isset($word_list[$keyword])) {
            record($keyword);
        }
    }
}
/**
* 从消息中拆出短句子
*/
function getStrList($msg) {
    $str_list = array();
    $seperators = array(&#39;,&#39;, &#39;。&#39;, &#39;的&#39;, ...);
 
    $words = preg_split(&#39;/(?<!^)(?!$)/u&#39;, $msg);
    $str = array();
    foreach ($words as $word) {
        if (in_array($word, $seperators)) {
            $str_list[] = $str;
            $str = array();
        } else {
            $str[] = $word;
        }
    }
 
    return array_filter($str_list);
}
 
/**
* 从短句中取出各个词
*/
function getKeywords($str) {
    if (count($str) < 2) {
        return array();
    }
 
    $keywords = array();
    for ($i = 0; $i < count($str); $i++) {
        for ($j = 2; $j < 9; $j++) {
            $keywords[] = array_slice($str, $i, $j); // todo 限制一下不要超过数组最大长度
        }
    }
 
    return $keywords;
}
🎜古いマシンで実行する 古いマシンは効率が非常に悪く、実行に6時間かかりました。最新のマシンでは 2 ~ 3 時間かかると推定されており、その後の最適化にはすべて新しいマシンが使用されます。本文はまだ始まったばかりです。 🎜🎜アイデアや手法が独創的で独創的です。 🎜🎜進化 – 通常の🎜🎜デザイン🎜🎜 仕事を引き渡した翌日、製品は新しいアイデアを思いつき、将来は特定のデータソースに接続したいと言い、メッセージは次の形式で配信されます。ファイルではなくデータ ストリームの形式。また、メッセージ統計のリアルタイム性も必要です。データをファイルに書き込んでからカウントするという私の考えは覆されました。現在の統計オブジェクトは全体ではなくなりました。単一のメッセージが一致したと見なされます。 🎜🎜この時点では、私は少し混乱していたので、最も伝統的なツールである通常のツールに頼らざるを得ませんでした。正規表現の実装は難しくありません。各言語には正規一致関数がカプセル化されています。焦点はパターンの構築です。 🎜🎜もちろん、ここでのパターンの構築は難しいものではありません。🎜/keyword大量のキーワードのマッチングを最適化する|keword2|.../🎜、🎜|🎜を使用してキーワードを接続するだけです。 🎜🎜通常の落とし穴🎜🎜使用中に遭遇する 2 つの落とし穴: 🎜
  • 🎜 通常のパターンの長さが長すぎるため、マッチングエラーが発生します: PHP の通常のパターンにはバックトラッキングがあります。プロセスの利用可能なスタックがすべて消費され、最終的に PHP がクラッシュするのを防ぎます。パターンが長すぎると、PHP が過剰なトレースバックを検出し、テスト後にマッチングが中断されます。デフォルト設定では、最大パターン長は約 32,000 バイトです。 php.ini の 🎜pcre.backtrack_limit🎜 パラメータは、バックトラックの最大数です。デフォルト値は 大量のキーワードのマッチングを最適化する000000 です。これを変更するか、🎜php.ini🎜 で使用します。スクリプトの先頭 🎜ini_set('pcre.backtrack_limit', n);🎜 より大きな数値に設定すると、大量のキーワードのマッチングを最適化する つの一致の最大パターン長を増やすことができます。もちろん、キーワードをバッチでカウントすることもできます (私はこれを使用しました =_=)。 🎜
  • 🎜パターンに特殊文字が含まれているため、多数の警告が発生します: マッチング プロセス中に、PHP が多数の警告を報告したことが判明しました: 🎜unknown modifier 🎜文字化け🎜 🎜、慎重に検査した結果、🎜/🎜 文字があることが判明しました。🎜preg_quote()🎜 関数を使用してキーワードをフィルタリングできます。 🎜
🎜コード🎜🎜疑似コード: 🎜
$node = array(
    &#39;depth&#39; => $depth, // 深度,用以判断已命中的字数
    &#39;next&#39; => array(
        $val => $node, // 这里借用php数组的哈希底层实现,加速子结点的查找
        ...
    ),
);
🎜 タスクを完了するために、プロセスは一晩中実行されました。翌日、大量のキーワードのマッチングを最適化する0時間近く走ったことが分かり、心が折れました。 。 。あまりに遅すぎて、使用要件を完全に満たしていなかったので、この時点ですでに方法を変更することを検討し始めていました。 🎜🎜そのプロダクトがキーワード戦略を変更し、一部のキーワードを置き換え、再度実行するように要求し、キーワードの最適化を継続すると述べたとき、私は既存の計画を完全に拒否しました。情報を照合するためにキーワードを使用してはなりません。すべてのキーワードを使用して 大量のキーワードのマッチングを最適化する つずつ照合するのは非常に耐えられません。 🎜🎜進化、需要、 実現🎜🎜目覚め – 言葉の分割🎜🎜デザイン🎜🎜情報とキーワードを比較する必要があることにようやく気づき始めました。キーワードをキーとしてハッシュ テーブルを作成し、情報内の単語を使用してハッシュ テーブル内を検索し、見つかった場合は一致するとみなされるので、O(大量のキーワードのマッチングを最適化する) の効率が達成されるのではないでしょうか。 🎜🎜しかし、短いメッセージの場合、単語の分割を使用して、一致する適切な単語に分割するにはどうすればよいでしょうか?単語の分割にも時間がかかり、私のキーワードはすべて意味のない単語です。語彙の構築と単語分割ツールの使用は大きな問題です。最後に、🎜単語の分割🎜 を考えました。 🎜

为什么叫拆词呢,我考虑以蛮力将一句话拆分为<strong>所有可能</strong>的词。如(我是好人)就可以拆成(我是、是好、好人、我是好、是好人、我是好人)等词,我的关键词长度为 2-8,所以可拆词个数会随着句子长度迅速增加。不过,可以用标点符号、空格、语气词(如的、是等)作为分隔将句子拆成小短语再进行拆词,会大大减少拆出的词量。

其实分词并没有完整实现就被后一个方法替代了,只是一个极具实现可能的构想,写这篇文章时用伪代码实现了一下,供大家参考,即使不用在匹配关键词,用在其他地方也是有可能的。

代码

$str_list = getStrList($msg);
foreach ($str_list as $str) {
    $keywords = getKeywords($str);
    foreach ($keywords as $keyword) {
        // 直接通过PHP数组的哈希实现来进行快速查找
        if (isset($word_list[$keyword])) {
            record($keyword);
        }
    }
}
/**
* 从消息中拆出短句子
*/
function getStrList($msg) {
    $str_list = array();
    $seperators = array(&#39;,&#39;, &#39;。&#39;, &#39;的&#39;, ...);
 
    $words = preg_split(&#39;/(?<!^)(?!$)/u&#39;, $msg);
    $str = array();
    foreach ($words as $word) {
        if (in_array($word, $seperators)) {
            $str_list[] = $str;
            $str = array();
        } else {
            $str[] = $word;
        }
    }
 
    return array_filter($str_list);
}
 
/**
* 从短句中取出各个词
*/
function getKeywords($str) {
    if (count($str) < 2) {
        return array();
    }
 
    $keywords = array();
    for ($i = 0; $i < count($str); $i++) {
        for ($j = 2; $j < 9; $j++) {
            $keywords[] = array_slice($str, $i, $j); // todo 限制一下不要超过数组最大长度
        }
    }
 
    return $keywords;
}

结果

我们知道一个 utf-8 的中文字符要占用三个字节,为了拆分出包含中英文的每一个字符,使用简单的 split() 函数是做不到的。

这里使用了 preg_split('/(? 是通过正则匹配到两个字符之间的''来将两个字符拆散,而两个括号里的 (? 是分别用来限定捕获组不是第一个,也不是最后一个(不使用这两个捕获组限定符也是可以的,直接使用//作为模式会导致拆分结果在前后各多出一个空字符串项)。  捕获组的概念和用法可见我之前的博客 PHP正则中的捕获组与非捕获组

由于没有真正实现,也不知道效率如何。估算每个短句长度约为 大量のキーワードのマッチングを最適化する0 字左右时,每条短消息约50字左右,会拆出 200 个词。虽然它会拆出很多无意义的词,但我相信效率绝不会低,由于其 hash 的高效率,甚至我觉得会可能比终极方法效率要高。

最终没有使用此方案是因为它对句子要求较高,拆词时的分隔符也不好确定,最重要的是它不够优雅。。。这个方法我不太想去实现,统计标识和语气词等活显得略为笨重,而且感觉拆出很多无意义的词感觉效率浪费得厉害。

觉醒,意识和思路的觉醒

终级 – Trie树

trie树

于是我又来找谷哥帮忙了,搜索大量数据匹配,有人提出了 使用 trie 树的方式,没想到刚学习的 trie 树的就派上了用场。我上上篇文章刚介绍了 trie 树,在空间索引 – 四叉树 里字典树这一小节,大家可以查看一下。

当然也为懒人复制了一遍我当时的解释(看过的可以跳过这一小节了)。

字典树,又称前缀树或 trie 树,是一种有序树,用于保存关联数组,其中的键通常是字符串。与二叉查找树不同,键不是直接保存在节点中,而是由节点在树中的位置决定。一个节点的所有子孙都有相同的前缀,也就是这个节点对应的字符串,而根节点对应空字符串。

我们可以类比字典的特性:我们在字典里通过拼音查找晃(huang)这个字的时候,我们会发现它的附近都是读音为huang的,可能是声调有区别,再往前翻,我们会看到读音前缀为huan的字,再往前,是读音前缀为hua的字… 取它们的读音前缀分别为 h qu hua huan huang。我们在查找时,根据 abc...xyz 的顺序找到h前缀的部分,再根据 ha he hu找到 hu 前缀的部分…最后找到 huang,我们会发现,越往后其读音前缀越长,查找也越精确,这种类似于字典的树结构就是字典树,也是前缀树。

设计

那么 trie 树怎么实现关键字的匹配呢? 这里以一幅图来讲解 trie 树匹配的过程。

大量のキーワードのマッチングを最適化する

其中要点:

构造trie树

  1. 将关键词用上面介绍的preg_split()函数拆分为单个字符。如科学家就拆分为科、学、家三个字符。

  2. 在最后一个字符后添加一个特殊字符`,此字符作为一个关键词的结尾(图中的粉红三角),以此字符来标识查到了一个关键词(不然,我们不知道匹配到科、学两个字符时算不算匹配成功)。

  3. 检查根部是否有第一个字符()节点,如果有了此节点,到步骤4。 如果还没有,在根部添加值为的节点。

  4. 依次检查并添加学、家 两个节点。

  5. 在结尾添加 ` 节点,并继续下一个关键词的插入。

匹配

然后我们以 <strong>这位科学家很了不起</strong>!为例来发起匹配。

  • 首先我们将句子拆分为单个字符 这、位、...

  • 从根查询第一个字符,并没有以这个字符开头的关键词,将字符“指针”向后移,直到找到根下有的字符节点;

  • 接着在节点下寻找值为 节点,找到时,结果子树的深度已经到了2,关键词的最短长度是2,此时需要在结点下查找是否有`,找到意味着匹配成功,返回关键词,并将字符“指针”后移,如果找不到则继续在此结点下寻找下一个字符。

  • 如此遍历,直到最后,返回所有匹配结果。

代码

完整代码我已经放到了GitHub上:Trie-GitHub-zhenbianshu,这里放上核心。

首先是数据结构树结点的设计,当然它也是重中之重:

$node = array(
    &#39;depth&#39; => $depth, // 深度,用以判断已命中的字数
    &#39;next&#39; => array(
        $val => $node, // 这里借用php数组的哈希底层实现,加速子结点的查找
        ...
    ),
);

然后是树构建时子结点的插入:

// 这里要往节点内插入子节点,所以将它以引用方式传入
private function insert(&$node, $words) {
         if (empty($words)) {
            return;
        }
        $word = array_shift($words);
        // 如果子结点已存在,向子结点内继续插入
        if (isset($node[&#39;next&#39;][$word])) {
            $this->insert($node[&#39;next&#39;][$word], $words);
        } else {
            // 子结点不存在时,构造子结点插入结果
            $tmp_node = array(
                &#39;depth&#39; => $node[&#39;depth&#39;] + 大量のキーワードのマッチングを最適化する,
                &#39;next&#39; => array(),
            );
            $node[&#39;next&#39;][$word] = $tmp_node;
            $this->insert($node[&#39;next&#39;][$word], $words);
        }
    }

最后是查询时的操作:

// 这里也可以使用一个全局变量来存储已匹配到的字符,以替换$matched
private function query($node, $words, &$matched) {
        $word = array_shift($words);
        if (isset($node[&#39;next&#39;][$word])) {
            // 如果存在对应子结点,将它放到结果集里
            array_push($matched, $word);
            // 深度到达最短关键词时,即可判断是否到词尾了
            if ($node[&#39;next&#39;] > 大量のキーワードのマッチングを最適化する && isset($node[&#39;next&#39;][$word][&#39;next&#39;][&#39;`&#39;])) {
                return true;
            }
            return $this->query($node[&#39;next&#39;][$word], $words, $matched);
        } else {
            $matched = array();
            return false;
        }
    }

结果

结果当然是喜人的,如此匹配,处理一千条数据只需要3秒左右。找了 Java 的同事试了下,Java 处理一千条数据只需要大量のキーワードのマッチングを最適化する秒。

这里来分析一下为什么这种方法这么快:

  • 正则匹配:要用所有的关键词去信息里匹配匹配次数是 key_len * msg_len,当然正则会进行优化,但基础这样,再优化效率可想而知。

  • 而 trie 树效率最差的时候是 msg_len * 9(最长关键词长度 + 大量のキーワードのマッチングを最適化する个特殊字符)次 hash 查找,即最长关键词类似 AAA,信息内容为 AAA...时,而这种情况的概率可想而知。

至此方法的优化到此结束,从每秒钟匹配 大量のキーワードのマッチングを最適化する0 个,到 300 个,30 倍的性能提升还是巨大的。

终级,却不一定是终极

他径 – 多进程

设计

匹配方法的优化结束了,开头说的优化到十分钟以内的目标还没有实现,这时候就要考虑一些其他方法了。

我们一提到高效,必然想到的是 并发,那么接下来的优化就要从并发说起。PHP 是单线程的(虽然也有不好用的多线程扩展),这没啥好的解决办法,并发方向只好从多进程进行了。

那么一个日志文件,用多个进程怎么读呢?这里当然也提供几个方案:

  • プロセスにログ行カウンターを追加します。各プロセスは受信パラメーター n をサポートします。プロセスは行数 % n = n % n = n 的日志,这种 hack 的反向分布式我已经用得很熟练了,哈哈。这种方法需要进程传参数,还需要每个进程都分配读取整个日志的的内存,而且也不够优雅。

  • 使用 linux 的 split -l n file.log output_pre のみを処理します。このハックの使い方はとても上手になりました(笑)。この方法では、プロセスがパラメータを渡す必要があり、各プロセスはログ全体を読み取るためにメモリを割り当てる必要があり、十分にエレガントではありません。

  • Linux の

    split -l n file.log Output_pre

    コマンドを使用して、ファイルをそれぞれ n 行のファイルに分割し、複数のプロセスを使用して複数のファイルを読み取ります。この方法の欠点は、プロセスの数を変更する場合、ファイルを再分割する必要があることです。

Redis のリストキューを使用してログを一時的に保存し、複数のプロセス消費キューを有効にします。この方法では、Redis にデータを追加で書き込む必要があり、追加の手順が必要になりますが、拡張が柔軟で、コードはシンプルでエレガントです。

最後に 3 番目の方法を使用して続行します。

結果

この方法にもボトルネックがありますが、最終的には Redis のネットワーク IO に影響するはずです。会社の Redis のパフォーマンスを試すためにわざわざ n 個のプロセスを開く必要はなく、3 ~ 4 分で 大量のキーワードのマッチングを最適化する0 個のプロセスを実行した後で統計を完了しました。 Redis への書き込みにかかる時間を加えても、大量のキーワードのマッチングを最適化する0 分以内に収まるはずです。

当初、製品はすでにマッチング速度を時間レベルに設定していましたが、大量のキーワードのマッチングを最適化する0分後に新しいログマッチング結果を取り出したとき、製品の驚いた表情を見て、私は少し嬉しかったです、はは~

。彼の道、それはあなたがさらに前進するのにも役立ちます

まとめ 問題を解決するにはたくさんの方法がありますが、さまざまな問題を解決する前に、たとえその機能を知っているだけであっても、さまざまな種類の知識を理解する必要があると思います。工具ラックと同じように、問題が発生したときに最適な工具を選択するには、できるだけ多くの工具を置く必要があります。もちろん、これらのツールを使用して奇妙な問題を解決できるようにするには、これらのツールの使用に習熟する必要があります。 🎜🎜仕事をうまくやり遂げたい場合は、まずツールを強化する必要があります。パフォーマンスの問題を解決したい場合は、システムレベルのメソッドを習得するだけでは不十分な場合があります。データ構造やアルゴリズムを変更することでより良い結果が得られる場合があります。この部分はまだ少し弱いと思うので、少しずつ強化していきたいと思いますし、皆さんも励ましてくださいます。 🎜🎜🎜

以上が大量のキーワードのマッチングを最適化するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。