八千万以上的数据怎么快速入库

怎么快速入八千万以上的数据,预估每天八千万以上。
各位大佬,能提供个效率高的方案吗?

《L05 电商实战》
从零开发一个电商项目,功能包括电商后台、商品 & SKU 管理、购物车、订单管理、支付宝支付、微信支付、订单退款流程、优惠券等
《L04 微信小程序从零到发布》
从小程序个人账户申请开始,带你一步步进行开发一个微信小程序,直到提交微信控制台上线发布。
最佳答案

mysql 提供了一个 load data infile 命令,效率较高

5年前 评论
最闲的码农 (楼主) 5年前
讨论数量: 9
wanghan

mysql-cli source

5年前 评论
最闲的码农 (楼主) 5年前
wanghan (作者) 5年前

我准备用python,把文本切割用多进程跑,这样效率应该好点吧!!

5年前 评论

mysql 提供了一个 load data infile 命令,效率较高

5年前 评论
最闲的码农 (楼主) 5年前

swoole 的协程也可以

5年前 评论

可以使用 Go 语言,主线程切割文件,启动协成并发将数据入库。

5年前 评论

转换为csv 用load导入

5年前 评论
LOST

每天八千万数据,这是什么业务啊?

5年前 评论
最闲的码农 (楼主) 5年前

讨论应以学习和精进为目的。请勿发布不友善或者负能量的内容,与人为善,比聪明更重要!