MoE 标签,匹配到约2个结果, 耗时0.0295秒
美团开源 LongCat-Flash-Prover 大模型:5600 亿参数,刷新两项 SOTA 水平

美团开源 LongCat-Flash-Prover 大模型:5600 亿参数,刷新两项 SOTA 水平

美团开源 LongCat-Flash-Prover 大模型:5600 亿参数,刷新两项 SOTA 水平
美团开源 LongCat-Flash-Prover 大模型,拥有 5677 亿参数,采用 MoE 架构,专为解决复杂的数学证明问题。该模型引入混合专家迭代框架,通过整合 Lean4 和严格验证流程消除“幻觉”,在 MiniF2F-Test ...
2026-03-21 · 浏览1次
MiniMax 稀宇科技发布万亿参数 MoE 模型 abab 6.5,核心能力接近 GPT-4

MiniMax 稀宇科技发布万亿参数 MoE 模型 abab 6.5,核心能力接近 GPT-4

MiniMax 稀宇科技发布万亿参数 MoE 模型 abab 6.5,核心能力接近 GPT-4
abab 6.5 系列模型包含万亿参数的 abab 6.5 与更高效的 abab 6.5s,支持 200k tokens 的上下文长度,最快可 1 秒内处理近 3 万字的文本,...
2024-04-17 · 浏览1142次
上一页 · 下一页 · 当前第1页