1、今天被問一個問題:請問具體到PHP的代碼層面,改善高並發的措施有哪些?
面對高並發問題我首先想到的是集群、緩存(apt、redis、mem、內存...),但具體到PHP代碼層面除了想到隊列、減少網絡請求,想不到別的了,所以開了這個討論貼,希望大神留下可行方案。
1、今天被問一個問題:請問具體到PHP的代碼層面,改善高並發的措施有哪些?
面對高並發問題我首先想到的是集群、緩存(apt、redis、mem、內存...),但具體到PHP代碼層面除了想到隊列、減少網絡請求,想不到別的了,所以開了這個討論貼,希望大神留下可行方案。
我覺得 PHP
程式碼層面的話,那就直接從 PHP
的相關知識點出發
專案的 SESSION
處理機制,files->DB->Cache
專案的 Log
記錄狀況,files->DB
資源復用、長時間操作非同步處理,單例、全域資料共享,佇列等
字節碼快取 APC
,XCACHE
,OPCACHE
資料(view)緩存,檔案快取(files)->本地快取(Yac)->分散式快取(MEMCACHE,REDIS)
框架選擇,微框架(Lumen)->全棧PHP框架(SF,LARAVEL)->擴展框架(Yaf,Phalcon)->並行框架(Yar)
PHP
版本選擇, PHP5.x->hhvm->php7
是面試時候的問題嗎?
估計是面試公司實際開發時候遇到相關的問題,就拿來當面試問題
具體到程式碼方面,現在通常談到提高並發能力,可以藉鑑nodejs的思路,就是異步,非阻塞式的訪問,以保證高並發,所以你可以談談php都有哪些異步操作的擴展,比如我搜了一下有個叫做swoole的擴充。
還有就是把計算任務更多的交到前端,減少伺服器端的運算,提高回應速度。
還有就是操作資料庫,可能談如何修改資料庫的組織形式(減少join之類的操作)也不錯
唯快不破!
10ms一次的請求, 比100ms一次的請求, 壓力會小10倍, 因為你的並發是有限的, 如果一個連接進來後, 遲遲不完結, 就會佔用資源不釋放, 容易發生同一時間內存在大量並發連接. CPU和內存滿的時候, 會惡性循環卡死, 所以要設好連接數上限.
然後, 絕大多數人有這個毛病(我們公司到處有這樣代碼), 未優化的大量數據I/O:
<code>// 取用户的订单列表 $orders = api_get_orders($uid); // 可是, 订单里没有商品的详情, 怎么做呢? foreach($orders as $i=>$order){ // api_get_good_by_id 是个缓存或mysql IO $orders[$i]['good'] = api_get_good_by_id($order['goodid']); } return $orders;</code>
循環中產生了大量的IO, 如果平均一用戶一次資料20個訂單資料, 10個並發請求就產生了200個資料庫/快取IO
把它們合併為一個IO:
<code>// 取用户的订单列表 $orders = api_get_orders($uid); // 提取goodid序列 $goodids = array_map(function($o){ return $o['goodid']; }, $orders); // 一次性把商品全部取出来 $goods = api_get_goods_by_ids( $goodids ); // 封装到$orders foreach($goods as $i=>$g){ $orders[$i]["good"] = $g; } return $goods;</code>
有時候會大量的從快取中讀同一個key的資料, 如果我們加了一級runtime cache, 有了一次快取IO, 下次直接從php變數取, 豈不是更快? 類似我們在方法內用static 快取一些穩定不變的資料. 當然,別忘了封裝快取delete, set的時候, 清除或更新runtime快取.
對, 一切都是為了減少IO和提高復用, 計較那些什麼算法排序能快點, 意義不大, sql語句優化除外
物件資源重複使用 例如單例模式 實例化一個資料庫物件 這個物件共用
減少對資料的IO開銷
我也了解的比較淺,我就知道,能少請求資料庫就盡量少請求,存庫的資料如果不急的話的就放redis,然後做定時任務去跑。
一般最害怕的應該是對同一條數據的更新問題,比如說跟新庫存。這種採用隊列就能解決了。