Heim >Datenbank >MySQL-Tutorial >zg手册 之 Mysql 开发(1)-- 中文全文检索插件开发_MySQL
基于数据库的模糊匹配(运行时字符串查找,查询速度比较慢)
专有的全文检索引擎(sphinx, lucene等)
我曾经遇到一个项目,数据量在百万级别,不需要高级的全文检索方式(没有复杂的匹配需求,没有复杂的过滤条件),只是需要根据关键词检索数据,当时采用的 mysql 全文检索插件的方式来满足的项目需求。
Mysql 的 MyISAM 引擎支持第三方的全文检索插件,可以用第三方插件替换默认的全文检索插件。
在全文检索插件中提供中文分词算法,告诉MyISAM如何分词,并创建索引。
查询的时候通过插件分词,查询索引快速定位数据记录。
主要通过代码注释描述插件的开发方法,创建文件 tft.c,代码如下
#include <stdlib.h>#include <ctype.h>// mysql 插件必须包含的头文件#include <mysql>// 这是我自己写的一个分词库,没有什么优化,可以替换为其他开源的实现。#include <st_darts.h>#include <st_utils.h>#if !defined(__attribute__) && (defined(__cplusplus) /|| !defined(__GNUC__) || __GNUC__ == 2 && __GNUC_MINOR__ mode == MYSQL_FTPARSER_FULL_BOOLEAN_INFO){ bool_info.yesno = 1; } // 传递词给 mysql,用来创建索引,或者查询。 param->mysql_add_word(param, word, len, &bool_info);}/* 英文分词简单处理,用空格分隔 param 插件环境 描述: 解析英文的文档或者查询词,传递给 mysql 的索引引擎,用来创建索引,或者进行查询。*/static int tft_parse_en(MYSQL_FTPARSER_PARAM *param){ char *end, *start, *docend= param->doc + param->length; number_of_calls++; for (end= start= param->doc;; end++) { if (end == docend) { if (end > start) add_word(param, start, end - start); break; } else if (isspace(*end)) { if (end > start) add_word(param, start, end - start); start= end + 1; } } return 0;}/* 分词函数,对文档或者查询词进行分词。如果是全英文文档,则调用英文分词。*/#define c_uWordsCount 1024static int tft_parse(MYSQL_FTPARSER_PARAM *param){ if (NULL == param->doc || 0 == param->length){ return 0; } // 统计调用次数 number_of_calls++; st_timer stTimerType = ST_TIMER_MICRO_SEC; char* start = param->doc; char* docend = param->doc + param->length; // 初始化分词 handler struct st_wordInfo wordInfo[c_uWordsCount] = { { 0, 0, 0 } }; st_darts_state dState; stDartsStateInit(g_s_pDarts, &dState, start, docend); uint32_t uWordsCount = 0; long long queryBeginTime = stTimer(stTimerType); // 循环获取中文分词 while(uWordsCount </st_utils.h></st_darts.h></mysql></ctype.h></stdlib.h>