八千万以上的数据怎么快速入库

怎么快速入八千万以上的数据,预估每天八千万以上。
各位大佬,能提供个效率高的方案吗?

《L05 电商实战》
从零开发一个电商项目,功能包括电商后台、商品 & SKU 管理、购物车、订单管理、支付宝支付、微信支付、订单退款流程、优惠券等
《G01 Go 实战入门》
从零开始带你一步步开发一个 Go 博客项目,让你在最短的时间内学会使用 Go 进行编码。项目结构很大程度上参考了 Laravel。
最佳答案

mysql 提供了一个 load data infile 命令,效率较高

6年前 评论
最闲的码农 (楼主) 6年前
讨论数量: 9
wanghan

mysql-cli source

6年前 评论
最闲的码农 (楼主) 6年前
wanghan (作者) 6年前

我准备用python,把文本切割用多进程跑,这样效率应该好点吧!!

6年前 评论

mysql 提供了一个 load data infile 命令,效率较高

6年前 评论
最闲的码农 (楼主) 6年前

swoole 的协程也可以

6年前 评论

可以使用 Go 语言,主线程切割文件,启动协成并发将数据入库。

6年前 评论

转换为csv 用load导入

6年前 评论
LOST

每天八千万数据,这是什么业务啊?

6年前 评论
最闲的码农 (楼主) 6年前

讨论应以学习和精进为目的。请勿发布不友善或者负能量的内容,与人为善,比聪明更重要!