读取处理 excel文件内容,循环处理的有什么优化方式吗?
//读取 excel 文件内容
//业务要求实时返回异常信息,老师好实时修订学生数据,不能走异步执行
$items->chunk(2000)->map(function ($sheets) use (&$errorData) {
foreach ($sheets as $key => $sheet) {
//目前每一列的验证会涉及查询数据库 (如学生账号/ 学校/ 学段 /年级/班级)都是独立的表 ,原来导入五六千学生挺快的几秒,现在主表学生 200 多万,每年学生增加100 万左右,
目前1000多条都需要十几秒
//每一列excel文件给的都是中文 ,xx学校 / xx班级
//大致会对每一列学校层级对应关系是否一致/存在 (学校->学段->年级->班级)查询 / 检验/这个是查询的数据库/索引走了
}
//最终包装完数据会涉及批量添加 / 更新 / 以及和http请求另外一个系统请求同步
//批量添加日志信息每一个执行的详细日志,表里也几百万
});
推荐文章: