[已解决]请问5000W的MYSQL大数据集日志分页,如何解决查询速度?
目前日志表每天都能产生5000W左右的数据,已经采用分表处理。
但是新业务需要对日志进行分析,请问用mysql如何提高查询效率,或者还有其它改动成本低提升效率的方案吗?!
下面语句的均命中索引,比如查询总数 :
SELECT count(id) FROM log where uid = 1; // 5000w数据即使有索引速度也慢。
select id, user_id, pid, SUM(tax) as total_tax, SUM(tax1) as total_tax1 from `log_20240130` group by IF(LENGTH(pid)=0, id, pid), id order by `id` desc limit 25 // 需要分组操作,经测试2w条数据,效率就0.5s了,如果5000w直接当机了!
经过权衡,最后还是使用了doris来做专门的数据分析。使用canal同步MYSQL的数据到Doris。分析效率得到解决,非常感谢各位的热心解答!
直接使用doris呀,秒出结果,最近刚刚优化了一个项目,直接mysql数据表太大,亿级别,卡死,换了doris存储,直接秒出结果