千万重复数据需要去重,怎么处理?

请尝试在评论区里写下答案(如不能清楚表述,那么你可能没真正理解)。欢迎参与,为下一次求职做准备。

如题

《L02 从零构建论坛系统》
以构建论坛项目 LaraBBS 为线索,展开对 Laravel 框架的全面学习。应用程序架构思路贴近 Laravel 框架的设计哲学。
《G01 Go 实战入门》
从零开始带你一步步开发一个 Go 博客项目,让你在最短的时间内学会使用 Go 进行编码。项目结构很大程度上参考了 Laravel。
讨论数量: 7

借助第三方服务,比如mongo、redis等等,数据插入redis,set类型之类的,在导出就是去过重的

2年前 评论
chowjiawei

队列命令 慢慢删除重复数据即可 注意这个慢慢 的频率 其实 数据才千万 从中删除重复的 可能百万的样子 你弄个几十秒就足够跑完命令了 。

2年前 评论
Taoqun 1年前
chowjiawei (作者) 1年前
游离不2
  1. 创建新表,根据重复的条件建立唯一索引
  2. insert ignore into 新表 select * from 旧版
1年前 评论
九霄道长

大数据量 布隆过滤器

1年前 评论

讨论应以学习和精进为目的。请勿发布不友善或者负能量的内容,与人为善,比聪明更重要!