用BERT做NLU可基于Hugging Face Transformers库快速实现,关键在明确任务类型(如文本分类、NER、QA)、规范数据格式(如CSV含text和label列)、微调时选用对应模型类并设置标签数、推理时配合tokenizer完成端到端预测。
用BERT做自然语言理解(NLU)并不需要从零搭模型,Hugging Face的Transformers库已经封装好预训练权重和标准接口,关键在于理解任务类型、数据格式、微调逻辑和推理部署这四个环节。
常见NLU任务有文本分类(如情感分析、意图识别)、命名实体识别(NER)、问答(QA)、语义相似度判断等。不同任务对应不同的模型头(head)和标签格式:
num_labels,标签是整数(如0=正面,1=负面)TokenClassification类QuestionAnswering模型Transformers要求数据以Dataset对象形式传入,推荐用datasets库加载。以中文情感二分类为例:
text和label两列,label为0或1Dataset.from_csv()加载后,调用map()函数分词:def tokenize_fn(examples): return tokenizer(examples["text"], truncation=True, padding=True, max_length=128)
bert-base-chinese等中文分词器,不能直接用英文版加载预训练模型后,核心修改点极少:
AutoModelForSequenceClassification(分类)、AutoModelForTokenClassification(NER)num_labels(分类)或label2id/id2label(NER)Trainer类,传入模型、数据集、训练参数(TrainingArguments)即可,无需手写训练循环per_device_train_batch_size=16,num_train_epochs=3,learning_rate=2e-5
训练完得到model和tokenizer,预测时不能只喂原始字符串:
tokenizer(text, return_tensors="pt")转成PyTorch张量torch.argmax(logits, dim=-1).item()取预测类别{0:"neg", 1:"pos"}),再查
表转回可读标签tokenizer的padding和truncation必须开启不复杂但容易忽略:中文任务务必确认分词器与模型一致,验证集指标要早看早调,小样本下可试WarmupSteps和WeightDecay来稳住训练。