ホームページ  >  記事  >  バックエンド開発  >  mysql プロシージャ - MySQL で 100 万を超えるデータのクエリに使用されるテクノロジは何ですか?

mysql プロシージャ - MySQL で 100 万を超えるデータのクエリに使用されるテクノロジは何ですか?

WBOY
WBOYオリジナル
2016-08-25 10:19:361201ブラウズ

mysql の手順を教えてください。mysql の専門家 phpmysql 中国の Linux

検索速度を向上させるために、MySQL で 100 万を超えるデータをクエリするにはどのようなテクノロジを使用する必要がありますか?そしてメモリ消費量も減るのでしょうか?

返信内容:

クエリを最適化する最も簡単な方法はインデックス作成です。
より高度な最適化を行う場合は、特定の問題を詳細に分析する必要があります。テーブル内のデータは複数のテーブルに分割される可能性がありますか?
通常はクエリされないデータもあり、履歴テーブルに保存できます。
データの確認は3カ月以内、6カ月以内などといった業務上の制約もある。これらの方法はすべてクエリを最適化する方法です。
次のステップは、SQL ステートメントを最適化することです。クエリ プランを使用して SQL ステートメントを分析し、どこで時間とメモリが消費されているかを確認できます。
上記のすべての方法が失敗した場合は、プロセスを高速化するためにハードウェアを拡張する必要がある場合があります。
一般に、問題に応じてクエリ速度を最適化する方法はたくさんあります。

クエリ条件に基づいて対応するインデックスを作成します。クエリ速度を大幅に向上させることができます

最初に説明し、実行計画を出力し、実際の状況に応じて最適化します。

引用元:
MySQL 最適化チュートリアル http://www.data.5helpyou.com/

適切なインデックス、合理的なテーブル構造 (テーブル内、テーブル間)、および適切なクエリ SQL を確立します。
結局インデックスの書き方を考えてみましたが、データ量が膨大な場合は既存の技術も使えます

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。