模型服务化部署的核心目标是将大模型转化为稳定、可调用、可扩缩的在线服务,需兼顾低延迟、高并发、资源可控、版本管理与可观测性,工程细节比模型精度更影响实际体验。
把训练好的大模型变成稳定、可调用、能扩缩的在线服务,不是简单跑通一个 Flask 接口。关键在于:低延迟响应、高并发承载、资源可控、版本可管理、日志可观测。工程落地时,模型加载耗时、显存占用、请求排队、错误降级这些细节,往往比模型精度更影响实际体验。
直接用 torch.load + model.eval() 启服务,在小模型上可行,但大模型会卡死在加载阶段或 OOM。必须借助专为推理优化的框架:
LLM 文本生成,支持 PagedAttention、连续批处理、KV Cache 共享,吞吐量比 HuggingFace Transformers 高 3–5 倍;pipeline,上手快;裸机部署难运维、难扩缩、难回滚。必须封装为容器镜像,并通过编排系统调度:
nvidia/cuda:12.1.1-devel-ubuntu22.04 或官方推理框架镜像(如 ghcr.io/huggingface/text-generation-inference:2.0.3);CUDA_VISIBLE_DEVICES 和 HF_HOME,预下载模型权重到镜像内(或挂载 NFS/PVC),避免启动时拉取失败;Deployment 管理副本,HPA 基于 CPU/GPU 利用率或自定义指标(如 QPS、pending queue length)自动扩缩;resource.requests/limits(尤其 nvidia.com/gpu),防止 GPU 争抢;用 readinessProbe 检查模型是否完成加载(例如访问 /health 返回 200)。对外暴露的接口不是越灵活越好,而是要兼顾易用性、安全性和可观测性:
prompt、max_tokens、temperature 等标准字段,输出带 request_id、generated_text、usage(token 数);503 Service Unavailable 并提示重试。新模型上线 ≠ 直接替换旧镜像。必须支持平滑切换、效果对比和快速回滚:
model-v2.1.0-cu121),K8s 使用 ConfigMap 或环境变量控制当前激活模型路径;kubectl rollout undo,全程秒级生效。