PHP导入CSV中文乱码需先检测并去除UTF-8 BOM,确保脚本为UTF-8无BOM格式,可设locale或加stream_filter转码;批量插入要分事务、控单SQL长度、防packet超限;Laravel大文件导入须用WithChunkReading分块、禁事件、关日志;Excel日期用PhpSpreadsheet自动转换,注意1900闰年偏移;务必先确认文件成功上传。
fgetcsv() 导入 CSV 文件时,中文乱码怎么处理直接 fgetcsv() 读取 UTF-8 编码的 CSV(尤其含中文),在 Windows 环境或旧版 PHP 下大概率出现乱码,本质是 BOM 或编码识别失败。
file_get_contents() 读取文件头几个字节,检查是否含 UTF-8 BOM(\xEF\xBB\xBF),有则手动截掉fgetcsv() 前,用 setlocale(LC_ALL, 'zh_CN.UTF-8')(Linux)或 'Chinese_China.65001'(Windows)辅助 locale 支持(非必需但可减少部分转换异常)stream_filter_append($handle, 'convert.iconv.UTF-8/GB18030') 强制转码(适用于 GBK/GB18030 源文件)mysqli 批量插入导入数据时,为什么只插了前几行就中断常见于没控制事务或单条 SQL 过长,触发 MySQL 的 max_allowed_packet 或超时限制。
$mysqli->query("SET autocommit = 0"),每 500 行左右 $mysqli->commit() 一次,避免锁表太久INSERT INTO t (a,b) VALUES (?,?),(?,?),... 时,单次不超过 1000 组值(即 2000 个占位符),否则易触发 packet 截断mysqli->query("SHOW VARIABLES LIKE 'max_allowed_packet'"),必要时在连接后运行 $mysqli->query("SET max_allowed_packet = 64*1024*1024")
mysqli_real_escape_string() 或统一走 prepare/bind_param,别拼接原始字符串Maatwebsite/Excel 导入大文件卡死或内存溢出默认 Import 类会一次性把整张表载入内存,10 万行 CSV 就可能吃掉 500MB+ 内存。
WithChunkReading 接口,实现 chunkSize(): int 返回 500~1000,让包分批读取model() 方法里 new Model,改用 queueable() + dispatchNow() 把写库逻辑丢进队列(哪怕同步队列)public $shouldQueue = false; 并在 import() 开头调用 Model::withoutEvents(function () { ... })
DB::disableQueryLog(),导入完再开(仅开发环境需查 SQL 时保留)44926 怎么转回 PHP 时间Excel 内部用「1900-01-01 起的天数」存日期,且 Windows 版默认启用 1900 闰年错误(把 1900-02-29 当有效日期),导致偏移 1 天。
PhpOffice\PhpSpre
adsheet\Shared\Date::excelToDateTimeObject($value) 最稳妥,它自动处理平台差异$excelDate > 60,说明是 1900 模式,用 date('Y-m-d', strtotime('+'.($excelDate - 2).' days', strtotime('1900-01-01')))
is_numeric($value) 判断实际导入时最常被忽略的是文件上传临时路径权限和post_max_size / upload_max_filesize 的协同限制——哪怕代码全对,PHP 连文件都没收到,后面所有逻辑都白搭。先 var_dump($_FILES) 确认文件是否抵达,再往下调试。