人工智能监管的演变:我们现在在哪里?

AI特色新闻1年前 (2023)发布 yundic
95 0 0

在不远的过去,关于人工智能的讨论主要局限于科幻小说和学术论文的领域。

快进到今天,人工智能已经深度融入日常生活结构,从智能家居到疾病诊断。

但随着人工智能技术的飞速发展,监管框架正在迎头赶上,往往落后于创新曲线。

这给人类带来了一个多方面的难题–我们如何制定足够灵活的法律和法规,以适应快速的技术变化,同时又足够强大,以保护社会利益?

在全球范围内,监管努力远非统一。欧盟(EU)正在通过其全面的人工智能法案奠定基础,该法案旨在根据人工智能应用的风险水平对其进行分类和控制。

与此同时,美国更倾向于自愿承诺,而不是立即立法。

另一方面,中国对人工智能的控制非常严格,将监管与更广泛的政治和社会治理目标保持一致。

我们不要忘记其他司法管辖区-人工智能是一个全球现象,需要近乎普遍的立法更多的报道。

那么,监管现在在哪里,预计将如何推进?

欧盟的做法

欧盟通过了开创性的人工智能法案,采用了严格的框架,预计将在今年年底前完全获得批准。

《人工智能法》规定了四个层次,包括“不可接受风险的人工智能”、“高风险的人工智能”、“有限风险的人工智能”和“低风险的人工智能”,每一个层次都有一套具体的指导方针和禁令。

不可接受的风险人工智能会造成直接或相当大的危险,例如造成身体或精神伤害或侵犯人权,这些都将被彻底禁止。

允许高风险的人工智能机构,但要遵守从风险管理到技术文档和网络安全的严格规定。

另一方面,有限和低风险的认可机构仍然主要不受监管,但需要保持与用户的透明度。

人工智能监管的演变:我们现在在哪里?

欧盟人工智能法案风险级别:来源:欧盟。

短期内有一个缓刑,因为立法包括约两年的宽限期,让公司符合新法规。

欧盟建议,人工智能模型的原始创建者应对如何使用其技术负责,即使是被另一家公司或开发者嵌入到不同的系统中。 还有新增加的“基础模型”规则,其中包括生成人工智能模型。

人们对《人工智能法案》的接受程度各不相同——一些人批评其笨拙的定义和削弱创新的潜力。例如,不同的人工智能模型如何划分风险类别存在相当大的不确定性。

此外,规模较小的人工智能公司担心自己缺乏资源来致力于合规。

OpenAI首席执行官Sam Altman 短暂的威胁 如果人工智能法案规定的要求实际上无法遵守,他将公司的产品撤出欧盟市场。

今年6月,150家大型企业 强调了该法案的严厉做法,目前的规则可能会破坏欧洲的竞争力。

与美国的分歧

一个斯坦福分析 《人工智能法案》的第一部分讨论了欧盟和美国在人工智能监管方面的根本差异。

布鲁金斯学会治理研究研究员亚历克斯·恩格勒表示:“美国和欧盟在[监管人工智能]的方法上存在着越来越大的差异。”

他强调,欧盟一直在推动数据隐私和透明度法,而美国仍然缺乏这些法律。差异混淆了人工智能公司的合规性,与跨司法管辖区合规相关的成本可能是过高的。

恩格勒说:”如果你对在线平台有两个截然不同的标准,企业利益将针锋相对。”

总体而言,到了紧要关头,很难想象科技公司不能像他们对GDPR所做的那样,找到一种方法来驾驭人工智能法案,而最近的数字服务法案也将不得不这样做。

在接受记者采访时自然杂志Access Now的高级政策分析师Daniel Leufer认为人工智能行业对该法案的反对意见只是“通常的炫耀”。

英国的做法

脱欧后,英国的目标是利用其独立于欧盟的优势,制定一个更灵活和针对特定行业的监管制度。

与人工智能法案相反,英国政府打算监管人工智能的应用,而不是底层软件本身。

支持创新的立场

英国政府发布了一份三月份白皮书勾勒出一个“支持创新”的框架,邀请利益攸关方分享他们的意见。然而,政府尚未发布实施这一框架的指导方针。

一份声明说,“政府将帮助英国利用人工智能技术带来的机遇和好处”,这一做法因没有公平关注人工智能相关的危害而受到批评。

政府甚至计划向人工智能公司提供极具争议的“版权豁免”,但在8月份,U—放弃了这一计划。

英国最近很难吸引科技创新,尤其是失去了剑桥芯片制造商Arm,后者选择在美国而不是在国内上市。这可能加剧了英国重新点燃其日益萎缩的科技部门的焦虑。

为了帮助英国定位为人工智能的前瞻性思维,首相Rishi Sunak宣布了为期两天的人工智能安全峰会 发生在11月。

值得注意的是,中国已被邀请参加这次活动—尽管有人猜测他们将被排除在外, 间谍恐惧症

美国的做法

在美国,重点是允许该行业自我监管,至少目前是这样。

美国国会正在发出“观望”的信号,开始审查人工智能闭门会议和查克·舒默的 AI洞察论坛为了确定人工智能具体在哪里需要新的监管。

人工智能监管的演变:我们现在在哪里?

美国参议院多数党领袖查克·舒默(Chuck Schumer)宣布了一系列AI Insight Forums,讨论AI监管问题。资料来源:Shutterstock。

两党协议可能围绕着针对隐私、平台透明度或 在网上保护儿童.

此外,一些人强调,现行法律和条例仍然与人工智能相关。

在六月,汗说“没有人工智能豁免禁止歧视的法律……随着这些东西越来越嵌入日常决策的制定方式,我认为他们邀请并值得大量审查……我认为执法者,无论是在州一级还是国家一级,都会采取行动。

自愿框架和应急措施

最近,微软、OpenAI、谷歌、亚马逊和Meta等知名科技公司 签署安全人工智能发展自愿承诺包括在公开发布之前进行内部和外部AI模型测试。

许多科技行业领袖都做出了自己的承诺,但在由于缺乏强有力的立法监督,这些承诺的诚意还有待检验。

总而言之,批评人士声称,美国的做法本质上是象征性的,缺乏欧盟《人工智能法案》的深度和承诺。第一届人工智能洞察论坛基本上是一个闭门活动,一些人批评它限制了公开辩论。

参议员乔希·霍利说,这是一场“巨大的鸡尾酒会”。

正如华盛顿大学法学院教授瑞安·卡洛(Ryan Calo)恰当地总结的那样,“表面上有活动,但没有实质性和约束力。”

中国式的方法

与其对国家控制的胃口相称,中国正在对人工智能实施一些最严格的法规。

重点是控制人工智能的信息传播,反映了中国更广泛的政治和社会治理框架。

例如,其产品可以“影响公众舆论”的生成人工智能提供商被要求提交安全审查。

包括百度的ERNIE Bot在内的第一波获准的聊天机器人是最近, 向公众发布并被发现审查政治主题的问题。

“深度造假”和人工智能生成内容的激增在全球范围内构成挑战,中国也不例外。中国网络空间管理局(CAC)在今年相对较早的时候就认识到了人工智能的潜在陷阱,要求人工智能驱动的内容生成器对用户进行身份验证。

此外,还引入了水印条款,以区分人工智能生成的内容和人类创建的内容,这些规则也是西方大国寻求实施的。

中美分歧

人工智能加速了美国和中国之间的摩擦,引发了许多人所说的“数字冷战”–或者更确切地说,是“人工智能冷战”。

美国限制与中国的合作和贸易并不是什么新鲜事,但当Xi Jinping宣布他的新的改革计划时,两国的脱钩向前迈进了一步 中国制造2025计划.

该计划旨在到2025年使中国在关键技术领域实现70%的自给自足,包括高端人工智能技术。

目前,美国在 切断资金和研究 与中国的关系,同时征服他们从英伟达等公司采购人工智能芯片。

人工智能监管的演变:我们现在在哪里?

中国的中国制造战略在腐败调查后进行了改革。资料来源:维基百科。

尽管美国在争夺人工智能主导地位的竞争中明显领先,但中国还有一些诀窍,包括集中化的监管方法和近乎无限的个人数据。

今年5月,Race Capital投资公司合伙人Edith Yeung, 告诉bbc“中国关于隐私的规定要少得多,而数据(与美国相比)要多得多。例如,到处都有闭路电视的面部识别功能。

中国政府和科技行业紧密合作也带来了优势,因为政府和国内科技公司之间的数据共享几乎是无缝的。

美国和其他西方司法管辖区对商业和个人数据的访问权限并不相同,这是机器学习模型的命脉。事实上,已经有人担心,高质量的 数据源正在耗尽。

此外,西方人工智能公司对潜在版权培训数据的自由使用引发了广泛的轩然大波和诉讼。

中国的人工智能公司可能不会受到这个问题的影响。

平衡可访问性和风险

人工智能曾经局限于学术界和大型企业。在一年左右的时间里,英国、美国和欧盟四分之一到一半的成年人使用过产生式人工智能。

可访问性有许多优点,包括刺激创新,减少初创公司和个人开发人员的进入壁垒。然而,这也引起了人们对无管制准入所带来的潜在滥用的关切。

最近Meta的Llama-1语言模型被泄露到互联网上例证了遏制人工智能技术的挑战。开源人工智能模型已经被用于欺诈目的,并被用来生成虐待儿童的图像。

人工智能公司知道这一点开源模式威胁到了他们的竞争优势。Meta已经成为行业的对手,在微软、OpenAI和谷歌等其他公司努力将其人工智能产品货币化时,它免费发布了一系列模型。

其他开源模型,如Falcon 180B LLM,功能异常强大,但缺乏护栏。

一些人猜测,主要的人工智能公司正在推动监管,因为这迫使较小的参与者和开源社区退出环,使他们能够保持对行业的主导地位。

人工智能的两用难题

另一个复杂因素是人工智能的双重或多重应用。

同样的算法,可以提高我们的生活质量,也可以武器化或应用于军事环境。 这可能是欧盟人工智能法案启发式框架的阿喀琉斯之踵-如何解释可以修改为有害的有用人工智能?

监管军民两用技术是出了名的复杂。当只有极少数人滥用人工智能技术时,实施严格的控制可能会扼杀创新和经济增长。

人工智能公司可以通过制定防止滥用的政策来规避指责,但这并不能阻止人们使用越狱‘欺骗模特输出非法材料。

平衡人工智能的经济利益和道德问题

人工智能的好处在经济上是引人注目的,特别是在医疗保健、能源和制造业等行业。

报告 麦肯锡 普华永道预测,人工智能每年将为全球经济贡献数万亿美元,无论就业替代和裁员的影响如何。

人工智能可以被视为为经济问题苦苦挣扎的国家创造就业和增长的途径。

在更广泛的哲学层面上,人工智能有时被描绘成人类在宏观层面的问题中的救世主,如贫困、气候变化和人口老龄化。

西方政府——特别是美国和英国——似乎倾向于通过税收激励、人工智能研究资金和自由放任的监管方式来推动增长。

这是美国过去通过使科技行业能够自我监管而进行的一场赌博,但它能继续获得回报吗?

W将人工智能与“核战争”和“全球流行病”相提并论的邪恶末日预言是否会让人们摆脱不断侵蚀的全球问题的潜力的浪漫化观点付诸东流?

人工智能呈现出某种二元性,它唤起了对未来的共适和反乌托邦愿景,这取决于你听的是谁。

R建立这样一个实体是前所未有的挑战。

无论如何,到2024年底,我们很可能生活在一个人工智能几乎受到普遍监管的世界里,但没有人能回答的是,这个行业 而技术本身 到那时就已经进化了。

© 版权声明

相关文章

暂无评论

暂无评论...