苹果近日在 Hugging Face 平台上正式开源了两大模型系列:FastVLM 与 MobileCLIP2。
型(VLM),采用新型的 FastViTHD 混合视觉编码器,能够在降低输出 token 数量的同时显著缩短编码时间,从而更高效地解析图像与文本之间的关联。FastVLM 系列涵盖 0.5B、1.5B 和 7B 三种参数规模。其中,FastVLM-7B 在 DocVQA 上取得 93.2 的成绩,在 ScienceQA 上达到 96.7,展现出行业领先的性能表现。
同时发布的还有 MobileCLIP2 模型系列,相关模型已上线 Hugging Face 的专属 Collections 页面。
相关论文《FastVLM: Efficient Vision Encoding for Vision Language Models》已被 CVPR 2025 接收,论文内容已公开,模型仓库中也一并提供了引用信息。
https://www./link/84403a769c84d34088c8b19584a235ad
https://www./link/d6afc47d9260056bf6ebac5a4c908540
https://www./link/49aea21a9ed85c3bd530a37df3de1c7e