大模型之家讯 美国网络安全兼基础架构安全管理署(CISA)及英国国家网络安全中心(NCSC)近日联合发布了《安全 AI 系统开发指引》白皮书,被誉为“全球首份相关安全标准”。该白皮书的目标是在设计阶段加强 AI 系统的安全性,以有效预防潜在的安全风险。白皮书的制定得到了包括美国、英国、德国、法国、日本、韩国、新加坡等 18 个国家的支持,并有 23 个网络安全组织参与,其中包括微软、谷歌、OpenAI、Anthropic、Scale AI 等知名机构。这份指引旨在为全球 AI 系统的开发提供安全性标准,强调从设计阶段就要考虑并强化 AI 系统的安全性,以应对不断增长的网络威胁。