欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
Mistral 发布 119B-A6B 模型 Small 4,首次兼顾推理、多模态、编程优势
2026-03-20 发布
·
浏览1次
·
点赞0次
·
收藏0次
3 月 20 日消息,Mistral AI 当地时间本月 16 日宣布推出 Mistral Small 4 模型,这是这家欧洲领先 AI 实验室首款结合旗舰推理模型、多模态模型、编程模型优势的综合性 LLM,用户无需在多种各有优势的模型中进行选择,实现了“我全都要”。
Mistral Small 4 采用 MoE 架构,总参数 119B、激活参数 6B,拥有 256k 的上下文窗口,支持快速和深度推理模式,以 Apache 2.0 许可开源。

Mistral AI 表示,新模型在延迟优化模式下端到端完成时间缩短了 40%,相较上代 Small 3 在吞吐优化模式下每秒请求数量多 3 倍。与外部模型比较,其在三个基准测试中均不劣于 OpenAI 的 GPT-OSS 120B。
注意到,Mistral Small 4 模型的最低部署配置为 4× HGX H100 / 2× HGX H200 / 1× DGX B200,推荐配置为 4× HGX H100 / 4× HGX H200 / 2× DGX B200。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
点赞(0)
收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
登录后再评论
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社