検索

ホームページ  >  に質問  >  本文

mysql大数据存储

目前业务有些变化, 在文章区每天会有100W的数据量增长(前期都是单表设计的),现在对于数据的读取与写入都有变慢,从网上了解到有 mysql 分区 、 分表 、 分库的思想 , 但是没有具体实施方案, 请问大家有具体的实施方案吗?

大家讲道理大家讲道理2784日前662

全員に返信(3)返信します

  • 大家讲道理

    大家讲道理2017-04-17 13:24:32

    不建议分区。这个比较坑。难以维护。分表比分区更适合。那分表的策略以用户账号来划分。这个帖子可以分为从0到N-1张分表。用户账户的首字母或者尾字母可以先转成ASCII码值设为num,然后再模除以%。
    select * from table_num%N
    分库,可以做主从库,主库负责写,从库负责读。读写分离。

    返事
    0
  • 伊谢尔伦

    伊谢尔伦2017-04-17 13:24:32

    每天100万的发帖量?

    返事
    0
  • 黄舟

    黄舟2017-04-17 13:24:32

    这么大的增量表再怎么拆,估计也够呛。

    返事
    0
  • キャンセル返事