关键流程是OpenCV负责图像读取与预处理,dlib负责人脸检测、关键点定位及特征提取;需注意RGB/BGR转换、conda安装dlib、68点模型与ResNet模型加载。
用 dlib 和 OpenCV 做人脸识别,关键不是堆代码,而是理清流程:先用 OpenCV 读图/捕获视频,再用 dlib 定位人脸和关键点,最后可选提取特征或做比对。两者分工明确——OpenCV 负责“看”,dlib 负责“认”。
dlib 编译较慢,尤其在 Windows 上容易出错。推荐优先使用 c
onda 安装预编译版本:
dlib 的 HOG + Linear SVM 检测器比 OpenCV 默认的 Haar 更准、更鲁棒,尤其对侧脸和小尺寸人脸。
detector = dlib.get_frontal_face_detector()
cv2.cvtColor(img, cv2.COLOR_BGR2RGB) 转换dlib.rectangles,可用 face.left(), face.top() 提取坐标,再转回 OpenCV 绘图(BGR)检测到人脸后,用 dlib 的 68 点模型标出五官轮廓,这是后续对齐、表情分析或活体检测的基础。
立即学习“Python免费学习笔记(深入)”;
predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")
landmarks = predictor(img_rgb, face),返回 dlib.full_object_detection
landmarks.parts() 即可获取所有 (x, y) 坐标,用 cv2.circle() 标出不训练模型,也能实现基础身份识别:提取人脸编码(embedding),计算余弦相似度。
face_rec_model = dlib.face_recognition_model_v1("dlib_face_recognition_resnet_model_v1.dat")
face_rec_model.compute_face_descriptor(img_rgb, landmarks)
np.linalg.norm(vec1 - vec2)),通常 实际项目中建议用 face_recognition 库简化调用,但理解 dlib 原生接口能帮你快速调试和定制逻辑。别跳过颜色空间转换和坐标格式适配——90% 的“没检测到人脸”问题都出在这两步。