八千万以上的数据怎么快速入库

怎么快速入八千万以上的数据,预估每天八千万以上。
各位大佬,能提供个效率高的方案吗?

《L04 微信小程序从零到发布》
从小程序个人账户申请开始,带你一步步进行开发一个微信小程序,直到提交微信控制台上线发布。
《G01 Go 实战入门》
从零开始带你一步步开发一个 Go 博客项目,让你在最短的时间内学会使用 Go 进行编码。项目结构很大程度上参考了 Laravel。
最佳答案

mysql 提供了一个 load data infile 命令,效率较高

4年前 评论
最闲的码农 (楼主) 4年前
讨论数量: 9
wanghan

mysql-cli source

4年前 评论
最闲的码农 (楼主) 4年前
wanghan (作者) 4年前

我准备用python,把文本切割用多进程跑,这样效率应该好点吧!!

4年前 评论

mysql 提供了一个 load data infile 命令,效率较高

4年前 评论
最闲的码农 (楼主) 4年前

swoole 的协程也可以

4年前 评论

可以使用 Go 语言,主线程切割文件,启动协成并发将数据入库。

4年前 评论

转换为csv 用load导入

4年前 评论
LOST

每天八千万数据,这是什么业务啊?

4年前 评论
最闲的码农 (楼主) 4年前

讨论应以学习和精进为目的。请勿发布不友善或者负能量的内容,与人为善,比聪明更重要!