批量插入 1 万条数据,DB 查询构造器和原生 SQL 性能比较
因项目需要导入数据量较大的CSV到MYSQL数据库,发现导入很慢,因此对其进行了比较!
以10000条数据来作为样本测试,第一次不分批全部导入,DB查询构造器报错,提示占位符超过65000个,超出MYSQL处理上限;原生SQL导入正常:
成功导入10000行
导入用时7.0685548782349
内存使用:0.4242578125MB
然后分割成5000一批插入,DB查询构造器插入正常:
成功导入10000行
导入用时37.71401309967
内存使用:0.33146875MB
原生SQL导入:
成功导入10000行
导入用时32.702127933502
内存使用:0.4242578125MB
相差不大,因此,批量插入最好还是用原生SQL,不受占位符限制。
不知大家有什么更好的方法,批量插入大量数据到数据库呢?
本作品采用《CC 协议》,转载必须注明作者和本文链接
推荐文章: