search

Home  >  Q&A  >  body text

linux - PHP页面有一个浏览量统计每秒有200并发,造成insert给mysql造成很大压力

lnmp环境,其他页面内容都做了缓存了,没有多大的负载,就是这个浏览量统计功能,给mysql带来不小的压力,请问诸位有什么解决办法吗?

巴扎黑巴扎黑2903 days ago1114

reply all(16)I'll reply

  • 阿神

    阿神2017-04-10 14:27:00

    怎么都说不要用MySQL来做,每秒200并发对MySQL来说不算啥难事啊。而且换成Redis、Memcached,持久化姑且不说,业务代码和运维部署量都不小。

    我给你几个建议,尽量让你的运维部署和业务代码改动小一些。

    你可以做主从分离,不要在一个库上高并发插入同时还做大量统计运算。分离之后,查询在从库是做(甚至是导入Hive之类专门的分布式系统来做),主库上可以去掉索引,提升插入的性能。这个方法,业务代码几乎不用任何改动(改个数据库配置文件就好了)。MySQL运维部署也可以选个业务低谷在线做。

    如果你可以接受少量业务代码(PHP)改动,还有两个建议:
    1. 分库,分表,每个表的数据总量小了,操作起来性能会好一些,特别是对从库的MyISAM表。你插入之前可能会有一些查询,例如查询这个IP在不在库里,以前统计过没。
    2. 使用HandlerSocket插件,绕过SQL Parser,直接操作存储文件。如果业务上有可能,还可以使用bulk insert(批量插入)。MySQL InnoDB还推出了类似HandlerSocket的InnoDB NoSQL Plugin,用的memcached协议,共享InnoDB Buffer,再也不用操心MySQL和Memcached之前怎么维护数据一致性了。

    reply
    0
  • 阿神

    阿神2017-04-10 14:27:00

    这种事情不要用MySQL做。弄个redis或者memcachedb就好了。

    reply
    0
  • PHPz

    PHPz2017-04-10 14:27:00

    直接log在文件里不就可以了。。。何必一定mysql。。。

    reply
    0
  • 高洛峰

    高洛峰2017-04-10 14:27:00

    先存放在memcached里面 然后 比如到100次再写入数据库,每天来次统计,把没有满足100的数据一起统计到mysql里面

    reply
    0
  • 伊谢尔伦

    伊谢尔伦2017-04-10 14:27:00

    可以搞个队列慢慢插啊

    reply
    0
  • 高洛峰

    高洛峰2017-04-10 14:27:00

    定时数一下log,做个标记,然后再写进MySQL

    reply
    0
  • 高洛峰

    高洛峰2017-04-10 14:27:00

    方案一:直接写文件,每天跑一次脚本统计总数(并发太高的话,IO可能受不了)
    方案二:把日志到写队列,由一个后端服务器从队列然后写到mysql,每天跑脚本统计总数
    方案二:使用开源的日志收集服务程序

    reply
    0
  • 迷茫

    迷茫2017-04-10 14:27:00

    不要立刻写入mysql,可以先写入一个文本中,每增加一定数量如100次,写一次数据库

    reply
    0
  • 高洛峰

    高洛峰2017-04-10 14:27:00

    1. 不要用php来做,用nginx来做
    2. php写入缓存系统,然后定时从缓存系统往数据库刷数据
    3. 用 redis

    reply
    0
  • 迷茫

    迷茫2017-04-10 14:27:00

    感觉可以拿redis在前面给mysql挡一下先。

    reply
    0
  • Cancelreply