yolov8 默认不支持仅关闭边界框(`boxes=false`)却保留标签和置信度的组合参数;本文提供一种可靠、可复用的后处理方案,通过手动绘制掩码区域并叠加带置信度的类别标签,实现“无框有标”的可视化效果。
在使用 Ultralytics YOLOv8 进行实例分割(segmentation)任务时,常需在结果图中突出语义掩码本身,同时避免边界框干扰视觉焦点——例如用于医疗图像分析、遥感解译或 UI 原型标注等场景。遗憾的是,YOLOv8 的 predict() 接口目前不支持 boxes=False 与 show_labels=True / show_conf=True 同时生效:当禁用 boxes 后,底层绘图逻辑会跳过整个标注渲染流程(包括标签文本),导致即使显式设置 labels=True 或 probs=True 也会触发配置校验异常(SyntaxError: Unknown arguments)。
因此,推荐采用后处理方式自主渲染:利用预测结果中的 masks(布尔掩码张量)和 boxes(含 cls 和 conf)信息,在原始图像上逐实例绘制彩色掩码区域,并在合适位置(如检测框左上角)添加白色半透明背景的标签文本。以下是完整、健壮的实现代码:
import numpy as np
import cv2
import matplotlib.pyplot as plt
from PIL import Image
from torchvision.transforms import functional as F
# 假设已执行:result = model.predict(..., conf=0.3)
prediction_results = result[0]
image_path = "{pathToImage}.png"
# 加载并预处理原始图像
original_image = Image.open(image_path).convert("RGB")
display_image = np.array(original_image) # shape: (H, W, 3), dtype: uint8
# 若存在分割掩码,则进行可视化
if prediction_results.masks is not None and len(prediction_results.masks.data) > 0:
masks = prediction_results.masks.data.cpu() # [N, H_
mask, W_mask], float32
boxes = prediction_results.boxes.xyxy.cpu().numpy() # [N, 4]
classes = prediction_results.boxes.cls.cpu().int().numpy() # [N]
confs = prediction_results.boxes.conf.cpu().numpy() # [N]
names = prediction_results.names # dict: {0:'A', 1:'B', ...}
# 为每个实例分配唯一颜色(此处用红色高亮,可扩展为 colormap)
for i in range(len(masks)):
# 将掩码缩放到原图尺寸(双线性插值 + 二值化)
h, w = display_image.shape[:2]
resized_mask = F.resize(masks[i].unsqueeze(0), (h, w), antialias=True).squeeze(0)
binary_mask = (resized_mask > 0.5).numpy() # 转为 bool 掩码
# 在 RGB 图像上叠加红色高亮(BGR 顺序:cv2 使用 BGR)
display_image[binary_mask, 0] = np.clip(display_image[binary_mask, 0] * 0.5 + 255 * 0.5, 0, 255) # Blue
display_image[binary_mask, 1] = np.clip(display_image[binary_mask, 1] * 0.5 + 0 * 0.5, 0, 255) # Green
display_image[binary_mask, 2] = np.clip(display_image[binary_mask, 2] * 0.5 + 0 * 0.5, 0, 255) # Red
# 添加标签文本:位置取 bounding box 左上角,字体大小适配图像尺度
x1, y1, x2, y2 = boxes[i].astype(int)
label = f"{names[int(classes[i])]}: {confs[i]:.2f}"
# 绘制带背景的文本(提升可读性)
(text_w, text_h), baseline = cv2.getTextSize(label, cv2.FONT_HERSHEY_SIMPLEX, 0.6, 2)
cv2.rectangle(display_image, (x1, y1 - text_h - 5), (x1 + text_w, y1), (0, 0, 0), -1) # 黑色背景
cv2.putText(display_image, label, (x1, y1 - 2), cv2.FONT_HERSHEY_SIMPLEX, 0.6, (255, 255, 255), 2)
else:
print("⚠️ Warning: No segmentation masks detected.")
# 显示结果
plt.figure(figsize=(10, 8))
plt.imshow(display_image)
plt.axis('off')
plt.title("YOLOv8 Segmentation — Boxes Hidden, Labels & Confidence Preserved", fontsize=14, pad=15)
plt.tight_layout()
plt.show()✅ 关键说明与注意事项:
此方法绕过了 YOLOv8 当前 API 的限制,完全可控、可定制,且与模型训练解耦,是生产环境中稳定落地的首选实践。