辛顿 标签,匹配到约9个结果, 耗时0.2072秒
马斯克:AI 毁灭人类的风险为 20%,未来结果更可能“超级棒”

马斯克:AI 毁灭人类的风险为 20%,未来结果更可能“超级棒”

马斯克:AI 毁灭人类的风险为 20%,未来结果更可能“超级棒”
埃隆・马斯克在《乔・罗根体验》播客中分享了对AI发展的看法,认为AI导致人类毁灭的概率为20%,但更可能出现“超级棒”的结果。他还预测AI将在未来一两年内超越人类智力,并在20...
2025-03-02 · 浏览66次
阿尔特曼澄清 OpenAI 尚未研发出 AGI,呼吁外界降低预期

阿尔特曼澄清 OpenAI 尚未研发出 AGI,呼吁外界降低预期

阿尔特曼澄清 OpenAI 尚未研发出 AGI,呼吁外界降低预期
今日,OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)通过社交媒体平台 X 澄清,尽管公司长期致力于开发比人类更聪明的通用人工智能(AGI),但目前尚未实现这一目...
2025-01-21 · 浏览110次
艾维·维格森、杰弗里·辛顿、汤晓鸥……盘点2024那些站在AI背后的科学家

艾维·维格森、杰弗里·辛顿、汤晓鸥……盘点2024那些站在AI背后的科学家

艾维·维格森、杰弗里·辛顿、汤晓鸥……盘点2024那些站在AI背后的科学家
在科研领域,还有一群鲜为大众所知、但在业内享有极高赞誉,却一直默默耕耘为AI进步贡献力量的科学家,同样值得铭记...
2025-01-03 · 浏览131次
“人工智能教父”辛顿公开支持马斯克起诉 OpenAI

“人工智能教父”辛顿公开支持马斯克起诉 OpenAI

“人工智能教父”辛顿公开支持马斯克起诉 OpenAI
本周一,由年轻人领导的全球倡导组织 Encode 向法院提交了一份支持埃隆・马斯克(Elon Musk)诉讼的法律意见书,试图阻止 OpenAI 的企业化转型。这一举措得到了人...
2025-01-03 · 浏览130次
Meta 首席科学家杨立昆:实现 AGI 最乐观需至少五到六年

Meta 首席科学家杨立昆:实现 AGI 最乐观需至少五到六年

Meta 首席科学家杨立昆:实现 AGI 最乐观需至少五到六年
他表示,目前AI的负面影响被过度放大,其能力目前仍非常有限。“在最乐观的情况下,AGI的实现至少尚需5-6年。”...
2025-01-01 · 浏览187次
“AI 教父”杰弗里・辛顿:30 年内人工智能致人类灭亡几率达 10%~20%

“AI 教父”杰弗里・辛顿:30 年内人工智能致人类灭亡几率达 10%~20%

“AI 教父”杰弗里・辛顿:30 年内人工智能致人类灭亡几率达 10%~20%
辛顿表示,与高度强大的人工智能系统的智慧相比,人类就像是学步的儿童。“我喜欢这样想:想象一下你和一个三岁的小孩。我们将成为三岁的小孩。”...
2024-12-30 · 浏览153次
美国加州州长否决人工智能安全法案 SB 1047

美国加州州长否决人工智能安全法案 SB 1047

美国加州州长否决人工智能安全法案 SB 1047
美国加州州长加文・纽森(Gavin Newsom)今日否决了具有争议的《前沿人工智能模型安全创新法案》(简称 SB 1047),他在否决消息中提到了多个影响他决定的因素,包括该...
2024-09-30 · 浏览307次
2023不容错过的 AI 十大历史事件

2023不容错过的 AI 十大历史事件

2023不容错过的 AI 十大历史事件
2023年是人类历史上划时代的一年。从2023年开始,人类进入了AI的大航海时代。我精心总结了最值得回顾的十大历史事件。从第10到第1,越靠后越重大,大家一定要看完!
2024-01-01 · 浏览373次
OpenAI首席科学家有个计划,寻找方法控制超级人工智能

OpenAI首席科学家有个计划,寻找方法控制超级人工智能

OpenAI首席科学家有个计划,寻找方法控制超级人工智能
OpenAI最近发布了一篇研究论文,介绍了一项实验结果。该实验旨在测试一种方法,让一个较差的人工智能模型在不降低智能的情况下指导一个更聪明的人工智能模型。尽管所涉及的技术还没有...
2023-12-15 · 浏览275次
上一页 · 下一页 · 当前第1页