Copyright © 2022-2024 aizws.net · 网站版本: v1.2.6·内部版本: v1.23.2·
页面加载耗时 0.00 毫秒·物理内存 76.1MB ·虚拟内存 1305.4MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
11 月 13 日消息,据彭博社报道,包括 OpenAI、谷歌和 Anthropic 在内的人工智能巨头公司在开发更先进的 AI 模型方面遇到了瓶颈,面临着“收益递减”的困境。
据报道,OpenAI 的最新模型 Orion 在处理编码任务方面表现不佳,与 GPT-4 相比,Orion 并没有显著的进步。谷歌即将推出的 Gemini 软件也面临类似的挑战,而 Anthropic 则推迟了其备受期待的 Claude 3.5 Opus 模型的推出。
业内专家指出,这些挑战源于难以找到“新的、未开发的高质量人类生成训练数据”以及同时开发和运营新旧模型的巨大成本。硅谷长期以来一直认为,更多的计算能力、数据和更大的模型将必然带来更好的性能,甚至实现通用人工智能(AGI),但这种观点可能基于错误的假设。
为了应对这些挑战,企业正在探索替代方法,包括模型初步训练完成后进行额外的训练(通过人类反馈改进回答和优化语气)和开发能够执行特定任务的 AI 工具(称为代理),如预订航班或代表用户发送电子邮件。
AI 初创公司 Hugging Face 首席伦理科学家 Margaret Mitchell 表示,“AGI 泡沫正在逐渐破裂,可能需要不同的训练方法才能使 AI 模型在各种任务上表现出色。”其他专家也表达了类似的观点。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。