Copyright © 2022-2024 aizws.net · 网站版本: v1.2.6·内部版本: v1.23.2·
页面加载耗时 0.00 毫秒·物理内存 79.6MB ·虚拟内存 1305.9MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
IT之家 12 月 29 日消息,新加坡南洋理工大学(NTU)的计算机科学专家近日研发了新的方法,可以使用聊天机器人来入侵聊天机器人。
该科研团队训练了一个 AI 聊天机器人,可以绕过其它 AI 聊天的安全限制。
团队研发了名为 Masterkey(LLM)的算法,逆向设计了 LLM 检测和防御恶意查询的方式,然后教会 LLM 自动学习并通过相关提示词,可以绕过其他 LLM 的安全性。
团队通过这种方式,可以创建一个黑客 LLM,它可以自动适应新条件,并在开发人员对其 LLM 进行更正后创建新的黑客请求。
研究团队成功利用这种方式入侵 AI 模型之后,已经通知服务提供商相关问题。
IT之家附上《新闻稿原文地址》,感兴趣的用户可以深入阅读。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。