首頁  >  文章  >  資料庫  >  mysql怎麼批次錄入數據

mysql怎麼批次錄入數據

coldplay.xixi
coldplay.xixi原創
2021-01-04 17:47:3711326瀏覽

mysql批量輸入資料的方法:1、使用循環插入;2、減少連接資源,拼接一條sql;3、使用預存程序;4、使用【MYSQL LOCAL_INFILE】。

mysql怎麼批次錄入數據

本教學操作環境:windows7系統、mysql8.0.22版,DELL G3電腦,此方法適用於所有品牌電腦。

相關免費學習推薦:mysql影片教學

mysql批量輸入資料的方法:

##方法一:循環插入

這個也是最普通的方式,如果資料量不是很大,可以使用,但是每次都要消耗連接資料庫的資源。

大致思維如下

(我在這裡寫偽程式碼,具體寫可以結合自己的業務邏輯或框架語法寫)

for($i=1;$i<=100;$i++){
 $sql = 'insert...............';
 //querysql
}
foreach($arr as $key => $value){
$sql = 'insert...............';
 //querysql
}
while($i <= 100){
$sql = 'insert...............';
 //querysql
 $i++
}

因為太過普通同時也沒什麼難度同時也不是我今天主要寫的所以這裡我不多說

方法二:減少連接資源,拼接一條sql

偽代碼如下

//这里假设arr的key和数据库字段同步,其实大多数框架中在php操作数据库的时候都是这么设计的
$arr_keys  = array_keys($arr);
$sql    = 'INSERT INTO tablename (' . implode(',' ,$arr_keys) . ') values';
$arr_values  = array_values($arr);
$sql    .= " ('" . implode("','" ,$arr_values) . "'),";
$sql    = substr($sql ,0 ,-1);
//拼接之后大概就是 INSERT INTO tablename ('username','password') values
('xxx','xxx'),('xxx','xxx'),('xxx','xxx'),('xxx','xxx'),('xxx','xxx'),('xxx','xxx')
.......
//querysql

這樣寫正常插入一萬條基本問題不大,除非資料很長,應付普通的批次插入夠用了,例如:批量生成卡號,批量生成隨機碼等等。 。 。

方法三:使用預存程序

這個我手上剛好再用這個就把sql付出來,具體業務邏輯大家自己組合一下就可以。

delimiter $$$
create procedure zqtest()
begin
declare i int default 0;
set i=0;
start transaction;
while i<80000 do
 //your insert sql 
set i=i+1;
end while;
commit;
end
$$$
delimiter;
call zqtest();

這個也只是個測試程式碼,具體參數大家自行定義

我這裡是一次插入8萬條,雖然不多但是,每一條資料量都很大,有很多varchar4000而text欄位

耗時6.524s

方法四:使用MYSQL LOCAL_INFILE

這個我目前正在使用,所以順便把pdo的程式碼也復上來,以便大家參考

//设置pdo开启MYSQL_ATTR_LOCAL_INFILE
/*hs96.cn@gmail.com
public function pdo_local_info ()
{
  global $system_dbserver;
  $dbname = 'hs96.cn@gmail.com';
  $ip  = 'hs96.cn@gmail.com';
  $user = 'hs96.cn@gmail.com';
  $pwd  = 'hs96.cn@gmail.com';
  $dsn  = 'mysql:dbname=' . $dbname . ';host=' . $ip . ';port=3306';
  $options = [PDO::MYSQL_ATTR_LOCAL_INFILE => true];
  $db  = new PDO($dsn ,$user ,$pwd ,$options);
  return $db;
 }
//伪代码如下
public function test(){
  $arr_keys   = array_keys($arr);
  $root_dir   = $_SERVER["DOCUMENT_ROOT"] . '/';
  $my_file   = $root_dir . "hs96.cn@gmail.com/sql_cache/" . $order['OrderNo'] . '.sql';
  $fhandler   = fopen($my_file,'a+');
  if ($fhandler) {
  $sql = implode("\t" ,$arr);
   $i = 1;
   while ($i <= 80000)
   {
    $i++;
    fwrite($fhandler ,$sql . "\r\n");
   }
   $sql = "LOAD DATA local INFILE '" . $myFile . "' INTO TABLE ";
   $sql .= "tablename (" . implode(',' ,$arr_keys) . ")";
   $pdo = $this->pdo_local_info ();
   $res = $pdo->exec($sql);
   if (!$res) {
    //TODO 插入失败
   }
   @unlink($my_file);
  }
}

這個同樣每一條資料量都很大,有很多varchar4000 和text欄位

耗時2.160s

以上滿足基本需求,100萬資料問題不大,要不資料實在太大也涉及分庫分錶了,或是使用佇列插入了。

以上是mysql怎麼批次錄入數據的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn