前言 关于 sphinx 的安装请参考 Sphinx 安装记录. 关于 coreeek 的安装请参考 coreseek 安装记录. sphinx 和 coreeek 安装好后,是可以搜索出满意的结果了,凡是有一个问题:对于新增的数据,我们需要在 sphinx 中重建索引。 又由于旧的数据量是很大的,所以
前言
关于 sphinx 的安装请参考 Sphinx 安装记录.
关于 coreeek 的安装请参考 coreseek 安装记录.
sphinx 和 coreeek 安装好后,是可以搜索出满意的结果了,凡是有一个问题:对于新增的数据,我们需要在 sphinx 中重建索引。
又由于旧的数据量是很大的,所以重建索引是很费时间的,所有如果数据不需要实时同步,那么每天晚上定时重建一下就行了。
如果需要实时同步,比如几分钟内就要搜索生效,那么就需要使用增量索引了。
然后再在晚上闲时合并增量索引和主索引。
关于配置
在 sphinx 中,需要配置两个数据源和两个索引, 一个是主索引,另一个是增量索引,而且增量索引需要继承于主索引。
由于我们的索引会在指定时间合并,所以在下次合并索引之前,我们增量索引需要做的就是重建上次合并索引之后改变或新增的数据。
所有我们需要一个辅助表来记录上次修改的时间,用于增量索引使用。
辅助表 结构很简单,只有一个字段上次合并的时间,而且永远只有一条记录。
CREATE TABLE t_blog_time_sphinx ( c_id INTEGER PRIMARY KEY NOT NULL, c_time DATETIME NOT NULL );
关于 sphinx 的配置如下
# 主数据源 source main_source { type = mysql sql_host = 127.0.0.1 sql_user = test sql_pass = test sql_db = test sql_port = 3306 sql_query_pre= SET NAMES utf8 sql_query = select c_id,c_title,c_content,c_year,c_month,c_day,c_modifytime,c_createtime FROM t_blog_sphinx; sql_attr_uint = c_year sql_attr_uint = c_month sql_attr_uint = c_day sql_attr_timestamp = c_modifytime sql_attr_timestamp = c_createtime sql_field_string = c_title sql_field_string = c_content } # 增量数据源 source main_inc_source : main_source { sql_query_pre = SET NAMES utf8 sql_query = select c_id,c_title,c_content,c_year,c_month,c_day,c_modifytime,c_createtime FROM t_blog_sphinx where c_modifytime > ( SELECT c_time FROM t_blog_time_sphinx limit 1 ); } # 主索引 index main_index { source = main_source path = /usr/local/coreseek4/var/data/main_index docinfo = extern charset_type = zh_cn.utf-8 charset_dictpath = /usr/local/mmseg3/etc/ ngram_len = 0 } # 增量索引 index main_inc_index : main_index { source = main_inc_source path = /usr/local/coreseek4/var/data/main_inc_index } # 索引程序 indexer { mem_limit = 32M } # 守护程序 searchd { listen = 9312 listen = 9306:mysql41 log = /usr/local/coreseek4/var/log/searchd.log query_log = /usr/local/coreseek4/var/log/query.lo client_timeout= 300 read_timeout = 5 max_children = 30 pid_file = /usr/local/coreseek4/var/log/searchd.pid max_matches = 1000 seamless_rotate = 1 preopen_indexes = 1 unlink_old = 1 mva_updates_pool= 1M max_packet_size= 8M max_filters= 256 max_filter_values= 4096 max_batch_queries= 32 workers = threads # for RT to work }
启动 sphinx
第一步是辅助表中插入一个时间
INSERT INTO t_blog_time_sphinx (c_time)VALUES(now());
第二步是创建主索引和增量索引
/usr/local/coreseek4/bin/indexer main_index /usr/local/coreseek4/bin/indexer main_inc_index
第三部是启动守护程序
/usr/local/coreseek4/bin/searchd
定时任务
定时任务需要做的有这么几件事。
- 实时重建当天的索引(增量索引)
- 晚上合并增量索引到主索引
- 更新辅助表的时间为当前时间(一般减去若干分钟,来使数据有几分钟的冗余,避免遗漏数据)
# 增量索引 /usr/local/coreseek4/bin/indexer t_cover_sphinx_inc_index --rotate # 合并 /usr/local/coreseek4/bin/indexer --merge t_cover_sphinx_index t_cover_sphinx_inc_index --rotate # 修改辅助表上次的合并时间 update t_blog_time_sphinx set c_time = now() - 10*60;
php 测试程序
在 coreseek 的测试目录下可以找到 sphinxapi.php 文件,复制到你的 php 源代码对应的位置。
关于全文索引字段的组装格式,可以参考 官方文档
//加入 sphinx api include('api/coreseek_sphinxapi.php'); //初始化 sphinx $sphinx = new SphinxClient(); $sphinx->setServer($ip, $port); //设置属性字段 if(isset($_GET["year"]) && strlen($_GET["year"]) > 0){ $sphinx->SetFilter("c_year", array($_GET["year"])); } //设置全文检索字段 $query = ""; if(isset($_GET["title"]) && strlen($_GET["title"]) > 0){ $query .= "|" . trim($_GET["title"]); } if(isset($_GET["content"]) && strlen($_GET["content"]) > 0){ $query .= "|" . trim($_GET["content"]); } $query = trim($query); //开始搜索,索引必须是主索引和增量索引 $res = $sphinx->query($query, 'main_inc_index,main_index'); echo "<p>query = $query </p>"; //输出结果,其中 GetLastError 和 GetLastWarning 用于调试。 echo "<pre class="brush:php;toolbar:false">"; print_r($sphinx->GetLastError()); print_r($sphinx->GetLastWarning ()); print_r($res); echo "";
本文出自:http://tiankonguse.github.io, 原文地址:http://tiankonguse.github.io/blog/2014/11/06/sphinx-config-and-use/, 感谢原作者分享。

存儲過程是MySQL中的預編譯SQL語句集合,用於提高性能和簡化複雜操作。 1.提高性能:首次編譯後,後續調用無需重新編譯。 2.提高安全性:通過權限控制限制數據表訪問。 3.簡化複雜操作:將多條SQL語句組合,簡化應用層邏輯。

MySQL查詢緩存的工作原理是通過存儲SELECT查詢的結果,當相同查詢再次執行時,直接返回緩存結果。 1)查詢緩存提高數據庫讀取性能,通過哈希值查找緩存結果。 2)配置簡單,在MySQL配置文件中設置query_cache_type和query_cache_size。 3)使用SQL_NO_CACHE關鍵字可以禁用特定查詢的緩存。 4)在高頻更新環境中,查詢緩存可能導致性能瓶頸,需通過監控和調整參數優化使用。

MySQL被廣泛應用於各種項目中的原因包括:1.高性能與可擴展性,支持多種存儲引擎;2.易於使用和維護,配置簡單且工具豐富;3.豐富的生態系統,吸引大量社區和第三方工具支持;4.跨平台支持,適用於多種操作系統。

MySQL數據庫升級的步驟包括:1.備份數據庫,2.停止當前MySQL服務,3.安裝新版本MySQL,4.啟動新版本MySQL服務,5.恢復數據庫。升級過程需注意兼容性問題,並可使用高級工具如PerconaToolkit進行測試和優化。

MySQL備份策略包括邏輯備份、物理備份、增量備份、基於復制的備份和雲備份。 1.邏輯備份使用mysqldump導出數據庫結構和數據,適合小型數據庫和版本遷移。 2.物理備份通過複製數據文件,速度快且全面,但需數據庫一致性。 3.增量備份利用二進制日誌記錄變化,適用於大型數據庫。 4.基於復制的備份通過從服務器備份,減少對生產系統的影響。 5.雲備份如AmazonRDS提供自動化解決方案,但成本和控制需考慮。選擇策略時應考慮數據庫大小、停機容忍度、恢復時間和恢復點目標。

MySQLclusteringenhancesdatabaserobustnessandscalabilitybydistributingdataacrossmultiplenodes.ItusestheNDBenginefordatareplicationandfaulttolerance,ensuringhighavailability.Setupinvolvesconfiguringmanagement,data,andSQLnodes,withcarefulmonitoringandpe

在MySQL中優化數據庫模式設計可通過以下步驟提升性能:1.索引優化:在常用查詢列上創建索引,平衡查詢和插入更新的開銷。 2.表結構優化:通過規範化或反規範化減少數據冗餘,提高訪問效率。 3.數據類型選擇:使用合適的數據類型,如INT替代VARCHAR,減少存儲空間。 4.分區和分錶:對於大數據量,使用分區和分錶分散數據,提升查詢和維護效率。

tooptimizemysqlperformance,lofterTheSeSteps:1)inasemproperIndexingTospeedUpqueries,2)使用ExplaintplaintoAnalyzeandoptimizequeryPerformance,3)ActiveServerConfigurationStersLikeTlikeTlikeTlikeIkeLikeIkeIkeLikeIkeLikeIkeLikeIkeLikeNodb_buffer_pool_sizizeandmax_connections,4)


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

SublimeText3漢化版
中文版,非常好用

MantisBT
Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

MinGW - Minimalist GNU for Windows
這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

mPDF
mPDF是一個PHP庫,可以從UTF-8編碼的HTML產生PDF檔案。原作者Ian Back編寫mPDF以從他的網站上「即時」輸出PDF文件,並處理不同的語言。與原始腳本如HTML2FPDF相比,它的速度較慢,並且在使用Unicode字體時產生的檔案較大,但支援CSS樣式等,並進行了大量增強。支援幾乎所有語言,包括RTL(阿拉伯語和希伯來語)和CJK(中日韓)。支援嵌套的區塊級元素(如P、DIV),

Atom編輯器mac版下載
最受歡迎的的開源編輯器