问答 / 1 / 9 / 创建于 5年前 / 更新于 5年前
怎么快速入八千万以上的数据,预估每天八千万以上。 各位大佬,能提供个效率高的方案吗?
mysql 提供了一个 load data infile 命令,效率较高
mysql-cli source
我准备用python,把文本切割用多进程跑,这样效率应该好点吧!!
swoole 的协程也可以
可以使用 Go 语言,主线程切割文件,启动协成并发将数据入库。
转换为csv 用load导入
每天八千万数据,这是什么业务啊?
加机子,加钱,完事
博客:接上次问答【八千万 txt 文件快速导入】解决办法 解决方式
我要举报该,理由是:
mysql 提供了一个 load data infile 命令,效率较高