>  Q&A  >  본문

group-by - mysql group by 优化的问题

我有一张接近八千万条数据的彩虹表,然后里面有二十多万条的重复数据,我想使用GROUP BY 进行分组,但是使用了GROUP BY语句以后,mysql会生出一张零时表,而零时表,把我的硬盘全部沾满了,所以,求个办法,能帮去去处这重复的数据?

我的sql:

sql:

SELECT COUNT(id) FROM password WHERE length = 4 GROUP BY ciphertext

ringa_leeringa_lee2766일 전586

모든 응답(1)나는 대답할 것이다

  • 迷茫

    迷茫2017-04-17 16:33:14

    不赞成用一条SQL语句来搞定这类问题,因为数据库耗不起。可以用程序来实现(比如写个Python脚本),步骤是这样的:

    1. 把表A(8千万行)复制一个表结构,产生一张空表B;

    2. 对B的ciphertext列做唯一索引;

    3. 遍历表A的每一行,插入到表B,可以用REPLACEINSERT INTO ... ON DUPLICATE KEY UPDATE ...

    4. 校验表B的数据,如果结果正确,则删除表A,把表B重命名为表A。

    회신하다
    0
  • 취소회신하다