微软推出其首款自研 AI 模型:MAI-Voice-1 秒级生成音频,MAI-1-preview 剑指 Copilot 文本场景

2025-08-29 发布 · 浏览19次 · 点赞0次 · 收藏0次

8 月 29 日消息,周四,微软人工智能部门正式推出其首批两款自研 AI 模型 ——MAI-Voice-1 语音模型与 MAI-1-preview 通用模型。据微软介绍,全新的 MAI-Voice-1 语音模型仅需单块 GPU,就能在 1 秒内生成时长 1 分钟的音频;而 MAI-1-preview 模型则“让用户提前窥见 Copilot 未来功能的发展方向”。

目前,微软已将 MAI-Voice-1 应用于多项功能中:例如在“Copilot Daily”功能里,AI 主持人会通过该模型播报当日热点新闻;同时,它还能生成播客风格的对话内容,帮助用户理解各类话题。

普通用户可在 Copilot Labs 平台亲自体验 MAI-Voice-1:不仅能输入希望 AI 表达的内容,还可自定义语音音色与说话风格。除这款语音模型外,微软此次同步推出的 MAI-1-preview 模型,训练过程动用了约 1.5 万块英伟达 H100 GPU。该模型专为特定需求用户设计,具备遵循指令的能力,可“为日常咨询提供实用回应”。

微软 AI 负责人穆斯塔法・苏莱曼去年在《Decoder》播客某期节目中表示,公司内部研发的 AI 模型并未将企业级应用场景作为核心方向,他解释道:“我的思路是,我们必须打造一款对消费者而言体验极佳的产品,并针对自身应用场景进行深度优化。在广告业务、消费者行为数据等领域,我们拥有海量高预测性、高实用性的数据,因此我的工作重点是构建真正适配‘消费者伙伴’定位的模型。”

据悉,微软 AI 计划将 MAI-1-preview 模型应用于 Copilot 助手的特定文本使用场景(目前 Copilot 主要依赖 OpenAI 的大型语言模型)。同时,该模型已开始在 AI 基准测试平台 LMArena 上进行公开测试。

注意到,微软 AI 团队在博客文章中写道:“我们对未来发展有着宏大规划。接下来,我们不仅会持续推进技术突破,更相信通过整合一系列针对不同用户需求与应用场景的专业模型,将释放出巨大价值。”

微软推出其首款自研 AI 模型:MAI-Voice-1 秒级生成音频,MAI-1-preview 剑指 Copilot 文本场景 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。