英国和美国为人工智能安全制定新的全球指南

AI行业新闻10个月前发布 yundic
505 0 0

随着人工智能技术的广泛部署,它们也成为网络犯罪分子的目标。英国和美国的网络安全机构就如何让人工智能更安全制定了新的指导方针。

该指南的目的是使人工智能公司能够“构建能够按照预期运行、在需要时可用、并且不向未经授权方泄露敏感数据的人工智能系统”。

基本上,如何确保你的人工智能不会被劫持或交出用户私人数据。

该指南列出了在整个开发生命周期中指导人工智能产品开发的设计原则。所涉及的四个关键领域概述如下:

  1. 安全设计
    在设计阶段评估风险并进行威胁建模。
  2. 安全开发
    在构建产品的同时,以安全的方式管理您的供应链、文档和数字资产。如果你走了不安全的捷径,一定要回去修复它们。
  3. 安全部署
    当您让用户访问您的产品时,请确保他们不能通过API或其他方式访问敏感部件。只有在严格的红色团队和测试之后才能部署。
  4. 安全的操作和维护
    监控您的产品,小心推出更新,当出现问题时不要保守秘密。

该指导方针在实现方面的技术细节上很轻,但这是一个良好的开端。除英国和美国外,还有16个国家批准了该准则。

完整的签字国名单如下:
澳大利亚、加拿大、智利、捷克、爱沙尼亚、法国、德国、以色列、意大利、日本、新西兰、尼日利亚、挪威、波兰、大韩民国、新加坡、联合王国、美利坚合众国。

值得注意的是,中国和俄罗斯没有出现在名单上,这两个国家可能是针对西方国家的最重要的网络攻击来源。

这些指导方针不具约束力,因此批准该文件的国家实际上只是在说‘我们认为这些是一些值得遵守的好的人工智能设计原则’。此外,尽管英国处于这些努力的前列,但它表示在不久的将来不会执行任何新的人工智能开发立法。

让人工智能产品尽可能安全符合各国的利益,但是否可能还有待观察。商业软件和系统中的零日漏洞似乎每天都在发生。

随着人工智能系统越狱漏洞的定期报道,我们有理由期待这些新模型能够适当地免受网络攻击吗?

人工智能的想象或预测的危险是潜在的未来威胁。毫无疑问,目前正在探索人工智能漏洞的网络犯罪分子是一个更明确和现实的危险。

© 版权声明

相关文章

暂无评论

暂无评论...