我舉個例子,我們以前做過一個mysql binlog
同步的系統,壓力還是非常大的,日同步資料要達到上億,就是說資料從一個mysql 函式庫原封不動地同步到另一個mysql 函式庫裡面去(mysql -> mysql)。常見的一點在於說例如大數據 team,就需要同步一個 mysql 函式庫過來,對公司的業務系統的資料做各種複雜的操作。
你在mysql 裡增刪改一條數據,對應出來了增刪改3 條 binlog
日誌,接著這三條 binlog
發送到MQ 裡面,再消費出來依次執行,起碼得保證人家是依照順序來的吧?不然本來是:增加、修改、刪除;你楞是換了順序給執行成刪除、修改、增加,不全錯了麼。
本來這個資料同步過來,應該最後這個資料被刪除了;結果你搞錯了這個順序,最後這個資料保留下來了,資料同步就出錯了。
先看看順序會錯亂的兩個場景:
RabbitMQ:一個 queue,多個 consumer。例如,生產者向 RabbitMQ 裡發送了三條數據,順序依序是 data1/data2/data3,壓入的是 RabbitMQ 的記憶體佇列。有三個消費者分別從 MQ 消費這三條資料中的一條,結果消費者2先執行完操作,把 data2 存入資料庫,然後是 data1/data3。這不明顯亂了。
Kafka:比如說我們建了一個 topic,有三個 partition。生產者在寫的時候,其實可以指定一個key,比如說我們指定了某個訂單id 作為key,那麼這個訂單相關的數據,一定會被分發到同一個partition 中去,而且這個partition 中的數據一定是有順序的。
消費者從 partition 取出來資料的時候,也一定是有順序的。到這裡,順序還是 ok 的,沒有錯亂。接著,我們在消費者裡可能會搞多個執行緒來並發處理訊息。因為如果消費者是單執行緒消費處理,而處理比較耗時的話,例如處理一則訊息耗時幾十 ms,那麼 1 秒鐘只能處理幾十則訊息,這吞吐量太低了。而多個線程並發跑的話,順序可能就亂掉了。
解決方案
RabbitMQ
拆分多個queue,每個queue 一個consumer,就是多一些queue 而已,確實是麻煩點;或者就一個queue 但是對應一個consumer,然後這個consumer 內部用內存隊列做排隊,然後分發給底層不同的worker 來處理。
Kafka
一個 topic,一個 partition,一個 consumer,內部單執行緒消費,單執行緒吞吐量太低,一般不會用這個。
寫N 個記憶體queue,具有相同key 的資料都到同一個記憶體queue;然後對於N 個線程,每個執行緒分別消費一個記憶體queue 即可,這樣就能保證順序性。
以上是mysql怎麼保證訊息的順序性的詳細內容。更多資訊請關注PHP中文網其他相關文章!