Copyright © 2022-2024 aizws.net · 网站版本: v1.2.6·内部版本: v1.23.3·
页面加载耗时 0.00 毫秒·物理内存 68.0MB ·虚拟内存 1302.0MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
11 月 25 日消息,宾夕法尼亚大学的研究人员发现,一系列人工智能增强型机器人系统存在严重的漏洞,容易受到黑客攻击和控制。
IEEE Spectrum 的一份报告引用了令人震惊的例子,例如被黑客攻击的机器狗将火焰喷射器对准主人、引导炸弹到最具破坏性的地点,以及自动驾驶汽车故意撞向行人。
据了解,宾夕法尼亚工程学院的研究人员将他们开发的基于 LLM 的机器人攻击技术称为 RoboPAIR。来自三个不同机器人供应商的设备都受到了 RoboPAIR 黑客攻击:英伟达支持的海豚 LLM、Clearpath Robotics Jackal UGV 和 Unitree Robotics Go2 四足机器人。研究人员表示,RoboPAIR 在黑客攻击这些设备方面取得了 100% 的成功率。
宾夕法尼亚工程学院电气系统工程、计算机与信息科学、机械工程与应用力学系运输学教授乔治・帕帕斯(George Pappas)警告称:“我们的研究表明,目前,大型语言模型与物理世界集成时还不够安全。”
其他研究人员指出,黑客攻击人工智能控制的机器人“惊人地容易”。他们解释说,RoboPAIR 通过配备目标机器人的应用程序接口(API)来工作,这样攻击者就可以以一种设备目标能够作为代码执行的方式来格式化提示词(prompts)。
研究论文得出结论,迫切需要实施防御措施来物理限制 LLM 控制的机器人。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。