澳大利亚考虑为“高风险”人工智能设置强制性护栏

AI伦理与社会10个月前发布 yundic
99 0 0

澳大利亚正在考虑对在”高风险”环境中开发和部署人工智能实施强制性防护措施,以回应公众咨询期间提出的关切。

澳大利亚工业和科学部部长埃德·休西奇说:“澳大利亚人理解人工智能的价值,但他们希望看到风险被识别和解决。”

澳大利亚政府提议实施的措施发布在一份题为《澳大利亚安全和负责任的人工智能咨询》的报告中。

报告称:“政府将考虑对那些在合法、高风险环境中开发或部署人工智能系统的人采取强制性保护措施。这将有助于确保人工智能系统在伤害难以或不可能逆转时是安全的。

它承认,对于什么是”高风险”环境存在不同的看法,但提供了欧盟《大赦国际法》中通过的清单作为例子:

  • 某些关键基础设施(水、气、电)
  • 医疗器械
  • 决定进入教育机构或招聘人员的系统
  • 执法、边境管制和司法中使用的系统
  • 生物特征识别
  • 情感识别

此外,它还提供了一些例子,例如人工智能可以用于预测一个人再次犯罪的可能性,判断一个人是否适合一份工作,或者控制自动驾驶汽车。

如果人工智能故障可能造成不可逆转的损害,那么它建议应该有强制性的法律来定义如何开发和部署该技术。

一些建议中的防护措施包括数字标签或水印,以识别人工智能生成的内容,“人在环”要求,甚至是彻底禁止人工智能的使用,这会带来不可接受的风险。

提出的不可接受应用的例子包括行为操纵、社交评分和实时人脸识别。

目前自愿监管

拟议的强制性要求可能需要一段时间才能起草成为法律。与此同时,在接受美国广播公司新闻采访时,休西奇说:“我们希望立即设计自愿的安全标准,并能够致力于此,并能够让行业理解他们应该提供什么,以及他们应该如何提供这些标准。”

OpenAI和微软在提交的文件中支持自愿性法规,而不是急于实施强制性法规。

新南威尔士大学人工智能教授托比·沃尔什(Toby Walsh)对这一方法以及中期报告中缺乏具体步骤表示批评。

沃尔什教授说,“有点晚了。没有太多具体的内容,大部分是与行业的自愿协议,正如我们过去看到的,让他们标记自己的家庭作业可能不是最好的主意。

该报告指出,“到2030年,采用人工智能和自动化技术每年可能为澳大利亚的GDP增加1700亿至6000亿美元。

在一个以严格监管著称的国家,如果澳大利亚给人工智能开发人员带来太多繁文缛节的负担,那么实现这些数字可能很困难。

© 版权声明

相关文章

暂无评论

暂无评论...