某手机应用市场项目,其中请求量最大的功能是查询升级接口,具体点来说:客户端会不定期的把手机中应用名称及其应用版本发送到服务端,服务端通过比较版本来判断客户端的应用是否需要升级,如果需要就返回若干项相关信息。通常,一台手机里会装几十个到上百
某手机应用市场项目,其中请求量最大的功能是查询升级接口,具体点来说:客户端会不定期的把手机中应用名称及其应用版本发送到服务端,服务端通过比较版本来判断客户端的应用是否需要升级,如果需要就返回若干项相关信息。通常,一台手机里会装几十个到上百个应用不等,当海量客户端一起请求时,服务端的压力可想而知。
客户端请求的数据格式如下所示,可以采用GET或POST方法:
packages=foo|1&packages=bar|2&packages=<name>|<version>&...</version></name>
服务端选择Lua作为编程语言,同时利用了Redis的PIPELINING机制批量查询数据:
local redis = require "resty.redis" local cjson = require "cjson" local config = require "config" ngx.header["Content-Type"] = "application/json; charset=utf-8" local args = ngx.req.get_uri_args(1000) if ngx.var.request_method == "POST" then ngx.req.read_body() for key, val in pairs(ngx.req.get_post_args(1000)) do args[key] = val end end if type(args["packages"]) == "string" then args["packages"] = {args["packages"]} end if type(args["packages"]) ~= "table" then ngx.exit(ngx.HTTP_BAD_REQUEST) end local cache = redis.new() local res, err = cache:connect(config.host, config.port) if not res then ngx.log(ngx.ERR, "error: ", err) ngx.exit(ngx.HTTP_SERVICE_UNAVAILABLE) end cache:init_pipeline() local packages = {} for _, val in ipairs(args["packages"]) do if type(val) == "string" then local name, version = string.match(val, "([^|]+)|([0-9]+)") if name and version then packages[name] = tonumber(version) cache:hget(name, "all") end end end local res, err = cache:commit_pipeline() if not res then ngx.log(ngx.ERR, "error: ", err) ngx.exit(ngx.HTTP_SERVICE_UNAVAILABLE) end local data = {} for _, val in ipairs(res) do if type(val) == "string" then val = cjson.decode(val) if packages[val["name"]] <p>补充:应用的数据作为HASH保存在Redis里,不过由于HGETALL非常耗费CPU,所以做了些处理:冗余保存了一个名为「all」的字段,用来保存原始数据的JSON编码,如此一来,就把复杂度为O(N)的HGETALL操作转化成了复杂度为O(1)的HGET操作,从而提升了效率。详细介绍请参考:《记Redis那坑人的HGETALL》。</p> <p>如上代码平稳运行了一段时间,但随着访问量的增加,开始暴露问题:Redis时不时出现卡住的现象,究其原因就是单线程的Redis无法承载过大的PIPELINING请求。通常我们都是采用多实例的方法来规避Redis单线程的性能瓶颈问题,但在本例中,由于PIPELING很大,不是随便冗余几个实例就能解决问题,同时系统也没有太多的内存可用。</p> <p>最后我们想到的办法是利用Nginx/Lua给Redis的PIPELINING减肥,具体一点来说:当客户端查询升级接口时,虽然会把多至上百个应用的信息同时发送到服务端,但其中真正升级的应用却很少,如果我们能把那些不升级的应用过滤掉,只查询升级的应用,无疑将大大提升系统的性能,形象一点说:当一个胖子请求经过过滤后,就变成了一个瘦子请求。实际操作时,我们可以把应用的版本缓存到Nginx/Lua共享内存里,客户端请求先在Nginx/Lua共享内存过滤一次,然后再判断是否需要查询Redis。</p> <p>为了使用共享内存,需要在Nginx配置文件中声明:</p> <pre class="brush:php;toolbar:false">lua_shared_dict versions 100m;
改良后的代码如下所示,注意其中共享内存的查询和设置部分的代码:
local redis = require "resty.redis" local cjson = require "cjson" local config = require "config" local versions = ngx.shared.versions; ngx.header["Content-Type"] = "application/json; charset=utf-8" local args = ngx.req.get_uri_args(1000) if ngx.var.request_method == "POST" then ngx.req.read_body() for key, val in pairs(ngx.req.get_post_args(1000)) do args[key] = val end end if type(args["packages"]) == "string" then args["packages"] = {args["packages"]} end if type(args["packages"]) ~= "table" then ngx.exit(ngx.HTTP_BAD_REQUEST) end local cache = redis.new() local res, err = cache:connect(config.host, config.port) if not res then ngx.log(ngx.ERR, "error: ", err) ngx.exit(ngx.HTTP_SERVICE_UNAVAILABLE) end cache:init_pipeline() local packages = {} for _, val in ipairs(args["packages"]) do if type(val) == "string" then local name, version = string.match(val, "([^|]+)|([0-9]+)") if name and version then version = tonumber(version) if not versions[name] or versions[name] > version then packages[name] = version cache:hget(name, "all") end end end end local res, err = cache:commit_pipeline() if not res then ngx.log(ngx.ERR, "error: ", err) ngx.exit(ngx.HTTP_SERVICE_UNAVAILABLE) end local data = {} for _, val in ipairs(res) do if type(val) == "string" then val = cjson.decode(val) if packages[val["name"]] <p>或许会有人会质疑:本质上请求量并没有减少啊,只是从Redis转嫁到了Nginx而已,这样就能提升性能么?问题的关键在于Redis是单线程的,而Nginx通过worker_processes指令,可以充分发挥多核CPU的能力,所以性能总体是提升的。</p> <p>补充:代码里在设置共享内存过期时间的时候,没有采用固定值,而是采用了一个随机数的方式,之所以这样设计,是为了避免大量数据同时过期,系统性能出现抖动。</p> <p>…</p> <p>当然,随着访问量的增加,本文的方案可能还会出现问题,到时候怎么办呢?其实类似查询升级之类的功能,就不应该设计成同步的形式,如果能改成异步的方式,那么多数问题就都不存在了,不过这个就不多言了,现在的方案刚刚好够用。</p> <p class="copyright"> 原文地址:通过Nginx/Lua给Redis的PIPELINING减肥, 感谢原作者分享。 </p>

存儲過程是MySQL中的預編譯SQL語句集合,用於提高性能和簡化複雜操作。 1.提高性能:首次編譯後,後續調用無需重新編譯。 2.提高安全性:通過權限控制限制數據表訪問。 3.簡化複雜操作:將多條SQL語句組合,簡化應用層邏輯。

MySQL查詢緩存的工作原理是通過存儲SELECT查詢的結果,當相同查詢再次執行時,直接返回緩存結果。 1)查詢緩存提高數據庫讀取性能,通過哈希值查找緩存結果。 2)配置簡單,在MySQL配置文件中設置query_cache_type和query_cache_size。 3)使用SQL_NO_CACHE關鍵字可以禁用特定查詢的緩存。 4)在高頻更新環境中,查詢緩存可能導致性能瓶頸,需通過監控和調整參數優化使用。

MySQL被廣泛應用於各種項目中的原因包括:1.高性能與可擴展性,支持多種存儲引擎;2.易於使用和維護,配置簡單且工具豐富;3.豐富的生態系統,吸引大量社區和第三方工具支持;4.跨平台支持,適用於多種操作系統。

MySQL數據庫升級的步驟包括:1.備份數據庫,2.停止當前MySQL服務,3.安裝新版本MySQL,4.啟動新版本MySQL服務,5.恢復數據庫。升級過程需注意兼容性問題,並可使用高級工具如PerconaToolkit進行測試和優化。

MySQL備份策略包括邏輯備份、物理備份、增量備份、基於復制的備份和雲備份。 1.邏輯備份使用mysqldump導出數據庫結構和數據,適合小型數據庫和版本遷移。 2.物理備份通過複製數據文件,速度快且全面,但需數據庫一致性。 3.增量備份利用二進制日誌記錄變化,適用於大型數據庫。 4.基於復制的備份通過從服務器備份,減少對生產系統的影響。 5.雲備份如AmazonRDS提供自動化解決方案,但成本和控制需考慮。選擇策略時應考慮數據庫大小、停機容忍度、恢復時間和恢復點目標。

MySQLclusteringenhancesdatabaserobustnessandscalabilitybydistributingdataacrossmultiplenodes.ItusestheNDBenginefordatareplicationandfaulttolerance,ensuringhighavailability.Setupinvolvesconfiguringmanagement,data,andSQLnodes,withcarefulmonitoringandpe

在MySQL中優化數據庫模式設計可通過以下步驟提升性能:1.索引優化:在常用查詢列上創建索引,平衡查詢和插入更新的開銷。 2.表結構優化:通過規範化或反規範化減少數據冗餘,提高訪問效率。 3.數據類型選擇:使用合適的數據類型,如INT替代VARCHAR,減少存儲空間。 4.分區和分錶:對於大數據量,使用分區和分錶分散數據,提升查詢和維護效率。

tooptimizemysqlperformance,lofterTheSeSteps:1)inasemproperIndexingTospeedUpqueries,2)使用ExplaintplaintoAnalyzeandoptimizequeryPerformance,3)ActiveServerConfigurationStersLikeTlikeTlikeTlikeIkeLikeIkeIkeLikeIkeLikeIkeLikeIkeLikeNodb_buffer_pool_sizizeandmax_connections,4)


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

EditPlus 中文破解版
體積小,語法高亮,不支援程式碼提示功能

SublimeText3 Linux新版
SublimeText3 Linux最新版

禪工作室 13.0.1
強大的PHP整合開發環境