人工智能系统的指数级增长超过了研究和监管,使政府处于平衡优势与风险的尴尬境地。
法律需要数年的时间来制定并具有法律约束力。AI每周都在进化。
这是人工智能领导人和政界人士面临的二分法,西方第一部有意义的人工智能法规-欧盟人工智能法案-将于2026年出台。甚至在一年前,ChatGPT还只是一个耳语。
5月31日,美国和欧盟高级官员在瑞典卢勒夫举行了美国—欧盟贸易和技术理事会(TTC)会议。欧洲数字专员玛格丽特·维斯塔格(Margrethe Vestager)上周与谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)会面,讨论了潜在的“人工智能协议”(AI Pact),她说:“民主需要表明我们和技术一样快。
官员们承认,技术进步与立法步伐之间存在着巨大的差距。谈到像ChatGPT这样的生成性人工智能,美国商务部长吉娜·雷蒙多(Gina Raimondo)说:“它的发展速度与其他技术不同。
那么,TTC会议取得了什么成果?
水印、外部审计、反馈循环——这只是与@ AnthropicAI和@ sama @ OpenAI讨论的一些想法今天在#TTC上发布的#AI #CodeOfCondition在#Luleje@SecRaimondo期待与国际合作伙伴的讨论。pic.twitter.com/wV08KDNs3h
– Margrethe Vestager(@ vestager)2023年5月31日
与会者首先讨论了围绕风险和透明度的非约束性或自愿性框架,这些框架将于秋季提交给G7。
欧盟对数字立法有直接的方法,选择对人工智能监管采取分层方法,即人工智能根据风险分类。
这包括一个被禁止的“不可接受的风险”层和一个“高风险”层,OpenAI首席执行官Sam Altman等技术老板担心这会损害他们产品的功能。
欧盟人工智能法案风险级别:来源:欧盟。
美国并没有提出这样明确的规定, 支持自愿性规则。
欧盟、美国和大型科技公司之间将需要举行更多会议,以使观点与有意义的实际行动保持一致。
人工智能规则会起作用吗?
自愿性规则的例子很多在其他部门和行业,如自愿数据安全框架和ESG披露,但没有一个像自愿人工智能治理框架那样接近前沿。
毕竟,据联合签署了该协议的顶级科技领袖和学者说, AI安全中心本周发布的AI风险声明.
像OpenAI和Google这样的大公司已经有了专注于治理和内部合规事务的中央部门,因此将其产品和服务与自愿框架相一致可能是重写内部政策文件的问题。
自愿规则总比什么都没有好,但随着众多提案摆在桌面上,政治家和人工智能领导者迟早要选择一些东西来运行。