Copyright © 2022-2024 aizws.net · 网站版本: v1.2.6·内部版本: v1.23.3·
页面加载耗时 0.00 毫秒·物理内存 62.4MB ·虚拟内存 1301.5MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
7 月 21 日消息,专门推动全球结构化信息标准的非营利组织 OASIS Open(由微软、英伟达、英特尔、谷歌、OpenAI、IBM、亚马逊、思科等厂商组建)在 7 月 18 日宣布建立 CoSAI 安全联盟(Coalition for Secure AI,安全 AI 联盟)。
获悉,该联盟计划与学术界共同解决三大重点领域,分别是 AI 软件供应链安全性、网络领域安全性及 AI 安全治理性。同时将与 Frontier Model Forum、Partnership on AI、Open Source Security Foundation、ML Commons 等 AI 安全组织合作,以共同推动“负责任的 AI”。
具体来说,CoSAI 计划建立一个协作生态体系分享与 AI 安全设计有关的“方法、标准化框架及工具”,并通过一系列被认证为“安全”的 AI 系统来构建、部署运营环境,以降低“模型操纵、模型盗窃、恶意训练数据、提示词‘越狱’”等情况发生的可能性,从而为 B 端市场提供安全的解决方案。
OASIS 组织表示,安全需要“集体行动”,为了安全地参与数字生态体系,大家都应该采用通用的安全标准,在 AI 方面“也并不例外”。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。