本文详解 infonce 损失函数中因标签构造依赖硬编码 batch_size 导致的 shape mismatch 错误,提供可扩展、设备无关的修复方案,并给出健壮的 pytorch 实现。
在自监督对比学习(如 SimCLR)中,InfoNCE 损失是核心组件,其正确性高度依赖于正负样本标签的精确构造。原始实现中常出现如下错误代码:
labels = torch.cat([torch.arange(self.args.batch_size) for i in range(self.args.n_views)], dim=0)
该写法隐式假设 features.shape[0] == self.args.n_views * self.args.batch_size,且 batch_size 始终能被整除——但当 batch_size=256、n_views=2

✅ 正确解法:完全抛弃对 self.args.batch_size 的依赖,直接从输入 features 的第一维动态推导真实批量大小。
由于每个样本生成 n_views 个增强视图,总特征数 features.shape[0] 必等于 n_views × actual_batch_size,因此每组样本的 ID 范围应为 torch.arange(features.shape[0] // self.args.n_views):
def info_nce_loss(self, features):
# ✅ 安全获取真实 batch size(不依赖 args)
actual_batch_size = features.shape[0] // self.args.n_views
labels = torch.cat(
[torch.arange(actual_batch_size, device=features.device)
for _ in range(self.args.n_views)],
dim=0
)
# 构建对称标签矩阵:labels[i,j] == 1 当且仅当 i,j 属于同一原始样本的不同视图
labels = (labels.unsqueeze(0) == labels.unsqueeze(1)).float()
# L2 归一化确保余弦相似度计算
features = F.normalize(features, dim=1)
similarity_matrix = torch.matmul(features, features.T)
# 创建对角掩码(排除自身与自身的相似度)
mask = torch.eye(labels.shape[0], dtype=torch.bool, device=features.device)
# 移除对角线元素,展平为 (N, N-1) 形状
labels = labels[~mask].view(labels.shape[0], -1)
similarity_matrix = similarity_matrix[~mask].view(similarity_matrix.shape[0], -1)
# 提取正样本(labels==1)和负样本(labels==0)
positives = similarity_matrix[labels.bool()].view(labels.shape[0], -1)
negatives = similarity_matrix[~labels.bool()].view(similarity_matrix.shape[0], -1)
# 拼接 logits:[pos_sim, neg_sim1, neg_sim2, ...]
logits = torch.cat([positives, negatives], dim=1)
# 标签恒为 0(所有正样本位于 logits 每行最左侧)
labels = torch.zeros(logits.shape[0], dtype=torch.long, device=features.device)
return logits / self.args.temperature, labels⚠️ 关键注意事项:
该实现彻底解耦了损失函数与训练配置参数,具备跨 batch size、多卡 DDP、梯度累积等场景的鲁棒性,是工业级对比学习代码库的标准实践。