首頁  >  文章  >  資料庫  >  如何優化效能? MySQL實作批次插入以最佳化效能的實例詳解

如何優化效能? MySQL實作批次插入以最佳化效能的實例詳解

零下一度
零下一度原創
2017-04-28 09:37:151322瀏覽

這篇文章主要介紹了MySQL實現批量插入以優化性能的教程,文中給出了運行時間來表示性能優化後的對比,需要的朋友可以參考下

對於一些數據量較大的系統,資料庫面臨的問題除了查詢效率低下,還有就是資料入庫時間長。特別像報表系統,每天花在資料導入上的時間可能會長達幾個小時或十幾個小時之久。因此,優化資料庫插入效能是很有意義的。
經過MySQL innodb的一些效能測試,發現一些可以提高insert效率的方法,供大家參考。

1. 一條SQL語句插入多條資料。
常用的插入語句如

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('1', 'userid_1', 'content_1', 1);

修改成:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('0', 'userid_0', 'content_0', 0), ('1', 'userid_1', 'content_1', 1);

修改後的插入操作能夠提高程式的插入效率。這裡第二種SQL執行效率高的主要原因是合併後日誌量(MySQL的binlog和innodb的事務讓日誌)減少了,降低日誌刷盤的資料量和頻率,進而提高效率。透過合併SQL語句,同時也能減少SQL語句解析的次數,減少網路傳輸的IO。
這裡提供一些測試比較數據,分別是進行單一資料的導入與轉換成一條SQL語句進行導入,分別測試1百、1千、1萬筆資料記錄。

2015411105302028.jpg (295×109)

2. 在交易中進行插入處理。
把插入修改成:

START TRANSACTION;
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('1', 'userid_1', 'content_1', 1);
...
COMMIT;

2015411105415391.jpg (295×109)

#3. 資料有序插入。
資料有序的插入是指插入記錄在主鍵上是有序排列,例如datetime是記錄的主鍵:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('1', 'userid_1', 'content_1', 1);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('2', 'userid_2', 'content_2',2);

修改成:
##

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('1', 'userid_1', 'content_1', 1);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
  VALUES ('2', 'userid_2', 'content_2',2);

由於資料庫插入時,需要維護索引數據,無序的記錄會增加維護索引的成本。我們可以參考innodb使用的B+tree索引,如果每次插入記錄都在索引的最後面,索引的定位效率很高,並且對索引調整較小;如果插入的記錄在索引中間,需要B+tree進行分裂合併等處理,會消耗比較多計算資源,並且插入記錄的索引定位效率會下降,資料量較大時會有頻繁的磁碟操作。

以下提供隨機資料與順序資料的效能對比,分別是記錄為1百、1千、1萬、10萬、100萬。

2015411105457735.jpg (362×152)

從測試結果來看,此最佳化方法的效能有所提高,但是提高並不是很明顯。

效能綜合測試:

這裡提供了同時使用上面三種方法進行INSERT效率最佳化的測試。

2015411105524293.jpg (529×196)

從測試結果可以看到,合併資料+交易的方法在較小資料量時,效能提高是很明顯的,當資料量較大時(1千萬以上),效能會急劇下降,這是由於此時資料量超過了innodb_buffer的容量,每次定位索引涉及較多的磁碟讀寫操作,效能下降較快。而使用合併資料+事務+有序資料的方式在資料量達到千萬級以上表現依舊是良好,在資料量較大時,有序資料索引定位較為方便,不需要頻繁對磁碟進行讀寫操作,所以可以維持較高的性能。

注意事項:
1. SQL語句是有長度限制,在進行資料合併在同一SQL中務必不能超過SQL長度限制,透過max_allowed_pa​​cket配置可以修改,預設是1M,測試時修改為8M。
2. 交易需要控制大小,事務太大可能會影響執行的效率。 MySQL有innodb_log_buffer_size配置項,超過這個值會把innodb的資料刷到磁碟中,這時,效率會下降。所以比較好的做法是,在資料達到這個這個值前進行交易提交。

以上是如何優化效能? MySQL實作批次插入以最佳化效能的實例詳解的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn