全球人工智能监管已经成为一个地缘政治问题,它将走向何方?

AI意见和分析10个月前发布 yundic
323 0 0

英国人工智能安全峰会,再加上拜登的行政命令,迫使人工智能监管成为焦点,但更大的图景依然模糊不清。

此次峰会汇集了不同的利益相关者,展示了塑造人工智能未来的集体承诺。

英国各政治媒体对此次活动的反应总体上是积极的,包括《卫报》在内的出版物通常反对苏纳克的雄心勃勃的做法,称其总体上是成功的。

虽然迄今为止,人们仍有一种挥之不去的感觉,即与人工智能相关的政策事件只不过是承诺,但完全驳回它们可能过于简化。

布莱切利宣言 这是峰会的标题产出之一,得到了包括美国、英国、中国和欧盟在内的28个国家的支持,强调了人工智能监管方面的国际共识。

在峰会前两天,拜登的行政命令 概述了美国管理人工智能风险的战略,展示了该国应对这一肯定是全球性挑战的国家应对措施。

该命令的时间安排表明了在快速发展的人工智能领域中确立领导地位和制定标准的尝试。

总而言之,这些事件无疑奠定了“为什么?”监管–控制风险,强调利益,保护弱势群体。

我们只剩下”怎么办”了围绕监管的性质和执行的讨论仍然存在争议。

主要大国现在正在争夺监管领导权,英国首相Rishi Sunak在宣布峰会时打算领导这一领导权。

这在某种程度上被行政命令所掩盖,副总统卡马拉·哈里斯(Kamala Harris)明确表示:“我们打算,我们在国内采取的行动将成为国际行动的典范。

美国商务部长吉娜·雷蒙多(Gina Raimondo)在峰会上的声明中进一步体现了竞争与合作的双重精神,她表示:“即使各国竞争激烈,我们也能够而且必须寻找全球性解决方案来解决全球问题。

谈到最近行政命令背后的精神,白宫人工智能顾问Ben Buchanan说,“美国在人工智能领域的领导力不仅仅是发明技术。

这是关于制定和共同开发治理机制、安全协议、标准和国际机构,这些将塑造这项技术的影响。

对美国来说,人工智能监管似乎是一个地缘政治竞争的话题,特别是当美国对俄罗斯、中东和中国高端人工智能出口的征服时。

少说话多行动?

陪审团还不知道这些事件是否会加速立法,以及该立法是否会有效。如果没有法律,人工智能开发人员可以继续推广自愿框架,而不受约束。

即使有了法律,人工智能的发展也很快,真正了解这项技术及其影响的人很少,他们的意见也存在分歧。

Geoffrey Hinton、Yoshio Bengio和Yann LeCun的“人工智能教父”甚至无法就人工智能风险、风险比例以及如何应对这些风险达成一致。

律师事务所Morrison Foerster的技术合伙人Charlotte Walker—Osborn表示,《布莱切利宣言》“可能会进一步推动国际立法和政府围绕监

“某种程度”是一个揭示问题的术语。正如沃克-奥斯本指出的那样,由于各国在监管和治理方面的方法不同,“不太可能有真正统一的方法”。达成共识是一回事,但在不同的法律和监管框架中实施共识则是另一回事。

此外,Rishi Sunak承认,缺乏约束性要求,以及政府和主要人工智能公司之间对自愿测试协议的依赖进一步表明了局限性。

没有可执行的法规,宣言可能缺乏推动具体变革所需的力量——就像拜登的行政命令一样。

我们可能已经进入了一个象征性的监管优势的动荡时期,具体的立法仍在中国以外的大部分酝酿之中。

根据Deb Raji的说法, mozilla基金会这次峰会透露了不同的观点。

Raji说:”我认为,各国对具体做什么有着相当不同的看法。”他表明,即使在那些同意监管原则的人中,具体细节仍然存在争议。

其他人此前曾表示,国会在人工智能的某些方面存在严重分歧,立法可能还有很长的路要走。

哥伦比亚大学法学教授Anu Bradford表示:“国会严重两极分化,甚至功能失调,以至于在不久的将来不太可能产生任何有意义的人工智能立法。

同样,Hugging Face研究员兼首席伦理科学家玛格丽特·米切尔(Margaret Mitchell)表示:“政府将寻求保护他们的国家利益,其中许多政府将寻求建立自己的领导地位。

自愿框架的可靠性

依赖任何形式的自愿框架在历史上都是不可靠的。

从20世纪30年代国际联盟和蒙克协议的失败到《京都议定书》、《巴黎协定》、联合国指导原则(UNGP),以及企业界的安然丑闻,过去多边自愿政策的尝试并没有激发信心。

全球人工智能政策制定有可能追随历史脚步,承诺打破现实政治的基石。 对于人工智能政策,代表性和影响力的失衡已经暴露出来。迈克·卡特尔,艾伦·图灵研究所的伦理学研究员, 指出区域差异他说:“全球南方有很大的差距。在非洲几乎没有什么变化。”

此外,监管需要严格、有力的法律程序,才能追究微软和谷歌等极具权势的公司的责任。

美国、英国、欧盟和中国有能力创建所需的立法框架,至少试图追究科技公司在人工智能问题上的责任,但大多数发展中国家就不能这样说了。

这将法律保护集中在较富裕的国家,使其他人容易受到剥削,无论是在数据标签服务的劳动力方面,这对人工智能发展至关重要,还是在他们的数据方面,人工智能公司由于缺乏数字权利而容易获得这些数据。

区域优先事项不同

人工智能监管不仅是一个国内问题,也是国际棋盘上的一个战略棋子。

例如,美国已经通过行政命令表明了自己的手,寻求保护人工智能创新,同时确保其与民主价值观和规范保持一致。

同样,欧盟主动提出了《人工智能法案》,旨在为人工智能的开发和使用制定早期的全球标准。然而,欧盟可以说为时过早,可能会有其立法过时或对当前人工智能行业定义不清的风险,这也表明了“观察和等待”是一种战略游戏,也是一种实用的游戏。

到目前为止,在人工智能监管的细微差别上统一欧盟集团,例如为谁设置限制,以及执法部门应如何应对违规行为,一直是一个挑战。虽然这项法律可能很快就会获得批准,但它对当前人工智能研发的影响将告诉人们,该法案在执行合规方面的有效性。

与此同时,其他国家暗示他们将制定自己的规则,加拿大和日本等国暗示他们即将推出自己的人工智能政策倡议。

此外,领先的人工智能大国敏锐地意识到,建立监管框架可以为它们提供竞争优势。他们提出的法规不仅为人工智能的道德使用设定了标准,还定义了经济竞争的竞争领域。

人工智能治理的前景将成为各种方法和理念的马赛克。

“人工智能冷战”争论加剧

美国在成为西方人工智能发展模式方面的咄咄逼人的立场还有另一个方面-它加强了对中国的地位。

美国和中国之间的竞争反映了一种主要是技术上的竞争,而不是核或意识形态上的竞争,媒体将其称为“人工智能冷战”,或许更无害的是,被称为“人工智能竞赛”。

将人工智能用于军事目的是美国限制对华贸易的核心,半导体技术因其对人工智能产业竞争力的根本重要性而成为关键战场。

围绕人工智能冷战的叙事在中国宣布其到2030年成为全球人工智能领导者的雄心之后生根发芽。这一断言引发了人们的担忧,并呼吁美国保持技术优势,不仅是为了美国,也是为了整个民主价值观,因为人工智能有可能加强专制政权,正如一些中国人在国家监控中使用技术所观察到的那样。

谷歌前首席执行官埃里克·施密特和政治学家格雷厄姆·T·艾利森等知名人物随后对中国在人工智能领域的快速进步提出了警告,表明美国可能在关键领域落后了。

此外,人工智能的不道德使用的可能性,主要与中国有关,呈现了一个让人想起第一次冷战时期的意识形态鸿沟。因此,人工智能部署中的道德考虑已经成为讨论这场新兴冷战的关键叙事要素。

Politico后来表示,为了对抗中国在人工智能领域的优势地位,民主国家联盟可能是必要的。

半导体行业尤其有争议,台湾在地缘紧张局势中扮演了关键角色。台湾半导体制造公司(TSMC)处于中心,世界上大部分半导体生产或通过台湾—一个主权不被中国承认的国家。事实上,英伟达的大部分芯片也是在台湾生产的。

紧张局势还蔓延到贸易限制,美国和欧洲官员以“人工智能冷战”为由,在公共采购过程中禁止华为5G技术,就可以看出这一点。

此外,特朗普和拜登政府都对荷兰公司ASML施加了限制,阻止先进的半导体制造设备出口到中国,再次以国家安全风险为由。

在产业政策方面,美国通过了《创新与竞争法案》,以及后来的《CHIPS与科学法案》,这些法案将数十亿美元投入技术和制造业,以对抗中国的威胁。欧盟已通过其欧洲芯片法案反映了这一做法,寻求加强其半导体制造能力。

人工智能监管可能正在进入一个更激烈的地缘政治辩论的新阶段。

与此同时,一些人甚至怀疑, 技术构成了大规模的风险而其他人则确信无疑,各方的困惑显而易见。

© 版权声明

相关文章

暂无评论

暂无评论...