Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.24.3·
页面加载耗时 0.00 毫秒·物理内存 64.9MB ·虚拟内存 1236.2MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
5 月 31 日消息,谷歌 DeepMind 团队于 5 月 27 日宣布推出 SignGemma,是其迄今为止最强大的手语翻译模型,可将手语转化为口语文本,该开源模型将于今年晚些时候加入 Gemma 模型家族。
注:SignGemma 模型支持多语言功能,但目前主要针对美国手语(ASL)和英语进行了深度优化,开源属性意味着开发者可以自由使用并改进它。
DeepMind 希望通过这一技术,打破手语使用者在沟通上的障碍,让他们在工作、学习和社交中更顺畅地参与。
DeepMind 今年还推出 Gemma 3n 模型,支持从音频、图像、视频及文本输入生成智能文本,助力开发者打造实时互动应用。
此外,谷歌还与佐治亚理工学院及 Wild Dolphin Project 合作,推出 DolphinGemma 模型,分析并生成海豚声音,基于巴哈马大西洋斑点海豚的长期研究数据构建。
同时,MedGemma 模型作为 Gemma 3 家族新成员,聚焦医疗 AI,支持临床推理和医学影像分析,加速医疗与人工智能的融合创新。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。