在访问英国参加人工智能安全峰会期间,美国副总裁卡马拉·哈里斯宣布,30个国家加入了美国的行列,支持其提议的人工智能军事用途的护栏。
11月1日,美国国务院网站发布了《关于人工智能和自主权负责任军事使用的政治宣言》,该框架的更多细节于11月9日发布。
哈里斯在声明中说:“为了在全球技术变革中提供秩序和稳定,我坚信我们必须以各国之间的共同谅解为指导。
这些国家承诺支持该倡议。
《人工智能和自治负责任的军事使用政治宣言》的签署国。来源:美国国务院
值得注意的是,中国和俄罗斯不在此列。中国赞同《布莱切利宣言》,承诺原则上支持人工智能的安全发展。
俄罗斯和中国决定拒绝批准军事人工智能声明,可能更多地与该文件的作者有关,而不是他们对其实质内容的看法。
名单上的另一个空白是两个国家目前从一些支持国以色列和乌克兰获得数十亿美元的军事支持。
作为美国盟友,他们决定不支持这一承诺更可能是因为两国目前在他们参与的冲突中使用人工智能。
以色列在各种军事应用中使用人工智能,包括其铁穹系统。乌克兰在与俄罗斯的冲突中以士兵和军事装备为目标的自主人工智能无人机引起了争议。
他们承诺什么?
如果你想阅读签署方同意的全部细节,你可以在这里这样做。
以下是简短的版本,可能会为了简洁而牺牲一些实质内容:
- 确保你的军队采用并使用这些人工智能原则。
- 您的军事人工智能使用必须符合国际法并保护平民。
- 高层必须管理军事人工智能的开发和部署。
- 主动减少军事人工智能能力中的意外偏差。
- 当你制造或使用人工智能武器时要小心。
- 确保您的人工智能防御技术是透明的和可审计的。
- 培训那些使用或批准使用军事人工智能能力的人,这样他们就不会在人工智能出错时盲目信任它。
- 明确定义你计划用军事人工智能技术做什么,并设计它,使它只做这一点。
- 继续测试自我学习并不断更新军事人工智能能力,看看它们是否仍然安全。
- 有一个关闭开关,以防你的人工智能武器失常。
这些都是值得称赞的理想,但它们在技术上,甚至在后勤上是否在国防组织的能力范围内,都是值得怀疑的。
它们是否可以执行?质押物的签署是对原则上背书的确认,但不承担任何法律义务。
签署一份文件说,“我们在军队中使用人工智能时会小心”,这也意味着该国完全打算将人工智能作为武器使用,尽管是以“负责任和道德”的方式。
至少这些国家承认人工智能有可能扩大常规武器已经造成的伤害。这一框架是让世界稍微安全了一点,还是只是让人们看到了不可避免的未来?
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...