千万重复数据需要去重,怎么处理?

请尝试在评论区里写下答案(如不能清楚表述,那么你可能没真正理解)。欢迎参与,为下一次求职做准备。

如题

《L01 基础入门》
我们将带你从零开发一个项目并部署到线上,本课程教授 Web 开发中专业、实用的技能,如 Git 工作流、Laravel Mix 前端工作流等。
《L03 构架 API 服务器》
你将学到如 RESTFul 设计风格、PostMan 的使用、OAuth 流程,JWT 概念及使用 和 API 开发相关的进阶知识。
讨论数量: 7
游离不2
  1. 创建新表,根据重复的条件建立唯一索引
  2. insert ignore into 新表 select * from 旧版
2年前 评论

借助第三方服务,比如mongo、redis等等,数据插入redis,set类型之类的,在导出就是去过重的

2年前 评论
chowjiawei

队列命令 慢慢删除重复数据即可 注意这个慢慢 的频率 其实 数据才千万 从中删除重复的 可能百万的样子 你弄个几十秒就足够跑完命令了 。

2年前 评论
Taoqun 1年前
chowjiawei (作者) 1年前
九霄道长

大数据量 布隆过滤器

2年前 评论

讨论应以学习和精进为目的。请勿发布不友善或者负能量的内容,与人为善,比聪明更重要!