PHP批量导入班级通信录需规范文件格式、编码转换、空行跳过、键值映射、PDO预处理+事务、分批执行、数据校验、错误明细记录及大文件防护。
直接用 fgetcsv() 或 PhpSpreadsheet 读取文件时,如果首行不是标准字段名(如 name、student_id、phone),后续映射必然出错。更常见的是 Excel 里混入空行、合并单元格、中文乱码(ANSI 编码未转 UTF-8)——这些都会导致某条数据解析失败却静默跳过。
实操建议:
.csv 文件,并在前端提示“请用 Excel 另存为 CSV UTF-8 格式”mb_detect_encoding() 检查文件编码,非 UTF-8 时用 iconv('GB2312', 'UTF-8//IGNORE', $line) 转换array_filter($row, 'strlen') 判断是否全为空值$row[0]),改用表头行建立键值映射:$header = array_map('trim', $first_row); $data = array_combine($header, $row);
逐条 INSERT 插入几百条学生记录,可能耗时数秒且容易超时;而拼接大 SQL 字符串又面临 SQL 注入和长度限制(如 MySQL max_allowed_packet 默认 4MB)。正确做法是用 PDO 的预处理语句配合事务提交。
实操建议:
$pdo->beginTransaction(),全部成功再 commit(),任一失败则 rollback()
$stmt = $pdo->prepare("INSERT INTO contact (name, student_id, phone) VALUES (?, ?, ?)"),循环中只调用 $stmt->execute([$name, $sid, $phone])
execute() 并清空参数缓存(避免内存累积),不攒几千条再统一 execute —— PDO 不会自动批处理if (empty($data['student_id']) || !is_numeric($data['student_id'])) { continue; },跳过脏数据并记日志用户传了 500 行数据,只返回“成功导入 482 条”,等于没说清楚哪 18 条丢了、为什么丢。实际维护中,班主任最需要的是可定位的失败详情。
实操建议:
$success_list 存插入成功的学号,$error_list 存 ['row' => 45, 'reason' => '手机号格式错误']
phone 字段做基础过滤:preg_replace('/[^0-9+]/', '', $phone),但别直接删掉带括号或横杠的合法号码(如 0755-12345678),应先尝试标准化再校验SQLSTATE 23000 错误,而不是让整个事务回滚——可用 INSERT ... ON DUPLICATE KEY UPDATE 或先 SELECT 查重['total' => 500, 'success' => 482, 'errors' => [...]],前端渲染成表格供下载错误明细班级通信录一般不大,但若允许上传整个年级 Excel(上万行), $_FILES['file']['tmp_na 加载进内存解析极易触发 
memory_limit 或 max_execution_time 限制。
实操建议:
$_FILES['file']['size'],超过 2MB 直接拒绝,不进入解析逻辑PhpSpreadsheet\Reader\Xlsx 时启用 setReadDataOnly(true),跳过样式、公式等无用信息$handle = fopen($tmp_file, 'r'); while (($row = fgetcsv($handle)) !== false) { ... },不一次性 file_get_contents
LimitRequestBody 2097152,Nginx 下配 client_max_body_size 2M,从入口层拦截超大请求