豆包大模型日均Tokens使用量破5000亿,模型家族再升级
截至7月,豆包大模型日均Tokens使用量已突破5000亿,平均每家企业客户日均Tokens使用量较5月15日模型发布时期增长22倍。...
2024-07-25
·
浏览206次
Mistral新旗舰决战Llama 3.1!最强开源Large 2 123B,扛鼎多语言编程全能王
Mistral新旗舰决战Llama 3.1!最强开源Large 2 123B,扛鼎多语言编程全能王...
2024-07-25
·
浏览252次
比当前世界最快超算 Frontier 最多快 4 倍,美国发布下一代超算 Discovery 开发招标书
橡树岭国家实验室表示,“Discovery”超级计算机将运行的工作负载包括先进的人工智能、机器学习、改进的能源效率和综合系统建模。...
2024-07-25
·
浏览201次
马斯克与扎克伯格终于对上眼了:AI 大模型 Llama 3.1 开源值得赞扬
周二,Meta 发布了最新的 AI 模型 Llama 3.1。Meta 声称,该模型优于 OpenAI 的 GPT-4o,并且是开源的,已向公众免费提供。...
2024-07-25
·
浏览185次
马斯克的“世界最强大 AI 数据中心”目前由 14 台移动发电机供电,引环保担忧
埃隆・马斯克的孟菲斯超级计算集群(Memphis Supercluster)已上线,据马斯克介绍称,该集群在单个 RDMA fabric 上使用 10 万张液冷 H100,是“...
2024-07-25
·
浏览232次
贾扬清共一论文获时间检验奖,国内无缘10篇最佳论文,ICML 2024奖项新鲜出炉
ICML 全称是 International Conference on Machine Learning,由国际机器学习学会(IMLS)举办,是计算机人工智能领域的顶级会议。...
2024-07-25
·
浏览197次
从裸机到700亿参数大模型,这里有份教程,还有现成可用的脚本
我们知道 LLM 是在大规模计算机集群上使用海量数据训练得到的,机器之心曾介绍过不少用于辅助和改进 LLM 训练流程的方法和技术。...
2024-07-25
·
浏览240次
数学大统一理论里程碑进展:几何朗兰兹猜想获证明,论文超800页
历经三十年的努力,数学家已经成功证明了一个名为「朗兰兹纲领(Langlands program)」的宏大数学愿景的主要部分。...
2024-07-25
·
浏览201次
击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了
经历了提前两天的「意外泄露」之后,Llama 3.1 终于在昨夜由官方正式发布了。...
2024-07-25
·
浏览286次