Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.24.4·
页面加载耗时 0.00 毫秒·物理内存 74.6MB ·虚拟内存 1302.5MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
6 月 7 日消息,面壁智能 6 日晚发布端侧大模型 MiniCPM 4.0。该公司称新模型通过自研 CPM.cu 推理框架,在极限场景下实现最高 220 倍提速,常规 5 倍提速,支持在 vLLM、SGLang、LlamaFactory 等框架部署。
此次发布的一款 8B 闪电稀疏版,采用创新稀疏架构掀起高效风暴;另一款 0.5B 则被称作“轻巧灵动的最强小小钢炮”。
据官方介绍,此次面壁推出的 MiniCPM 4.0 系列 LLM 模型拥有 8B、0.5B 两种参数规模,针对单一架构难以兼顾长、短文本不同场景的技术难题,MiniCPM 4.0-8B 采用「高效双频换挡」机制,能够根据任务特征自动切换注意力模式:在处理高难度的长文本、深度思考任务时,启用稀疏注意力以降低计算复杂度,在短文本场景下切换至稠密注意力以确保精度,实现了长、短文本切换的高效响应。
据了解,MiniCPM 4.0 可在 vLLM、SGLang、LlamaFactory、XTuner 等开源框架部署。其内置自研 CPM.cu 极速端侧推理框架,从投机采样创新、模型压缩量化创新、端侧部署框架创新几方面,带来 90% 的模型瘦身和速度提升,官方宣称将实现端侧推理“从天生到终生”的丝滑。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。