美国加大对人工智能的监管讨论—时间轴

AI特色新闻11个月前发布 yundic
83 0 0

在本周三的一份声明中,参议院多数党领袖查克·舒默(Chuck Schumer)提出了他备受期待的人工智能管理立法提案。他警告说,“国会必须加入人工智能革命”,以利用和管理这项技术。

舒默是来自纽约的民主党人, 表示他的计划在今年晚些时候开始一系列的“AI洞察论坛”。这些论坛将汇集人工智能领导人、研究人员、社区领导人、国家安全专家和其他专家。

他说,这些会议的成果将成为向国会提出政策建议的基础。

舒默在一家两党致力于外交政策和国家安全的非营利组织战略与国际研究中心(Center for Strategic and International Studies)发表讲话时说:“一些专家预测,在短短几年内,世界可能与我们今天生活的世界完全无法辨认。这就是人工智能:改变世界。

舒默承认人工智能带来的最近变化,并警告说:“我们别无选择,只能承认人工智能的变化正在到来,而且在许多情况下已经到来。我们忽视它们是我们自己的危险。很多人想忽略人工智能,因为它太复杂了。但说到人工智能,我们不能成为鸵鸟,把头埋在沙子里。

平衡风险和收益

舒默还强调了人工智能的积极潜力,从抗击疾病和饥荒到提高生产力。另一方面,他表达了对其潜在危险的担忧,包括劳工动荡、错误信息和欺诈。

他警告说,选举完整性可能受到威胁,包括虚假的歪曲声明和其他形式的诽谤,旨在损害他们的竞选活动,或聊天机器人传播错误信息以影响选民。舒默说:”人工智能可能会被用来进行黄疸,甚至最早在明年完全抹黑我们的选举。”“如果不采取措施确保人工智能保护我们国家的基础,那么我们就冒着民主的生存风险。

舒默表示,与100多名人工智能利益相关者进行了6个月的讨论,最终形成了一份名为“安全的人工智能创新”框架的立法蓝图。它由5个关键要素组成:

  • 安全通过应对人工智能威胁,加强国家安全,同时确保工人,特别是低收入工人的经济安全。
  • 问责制促进发展“负责任的”制度,以处理错误信息和偏见,并通过解决版权问题和保护知识产权来保护创作者。
  • 基础:确保人工智能系统与民主价值观保持一致,保障选举,在最大限度减少潜在危害的同时,强调人工智能的社会效益,防止中国共产党制定全球人工智能规范。
  • 解释性公司应该记录人工智能系统如何以简单明了的方式实现特定结果。这将允许用户更好地理解系统特定响应背后的推理及其起源。
  • 创新支持美国在人工智能技术方面的进步,并推动美国成为人工智能领域的世界领导者。

“创新必须是我们的北极星,”舒默继续说。“但是,如果人们认为人工智能创新不安全,如果没有足够的护栏到位—公众认为创新将不安全—这将扼杀甚至完全停止创新。

这一行动呼吁与人工智能专家的紧急警告一致,包括人工智能安全中心(CAIS)的一份声明,该声明由350多名科技CEO、学者、公众人物和其他知名专家签署。

在周二访问湾区期间,拜登总统会见了8位人工智能专家,包括Common Sense Media首席执行官Jim Steyer、Khan Academy创始人兼首席执行官Sal Khan以及人道技术中心执行董事兼联合创始人Tristan Harris,谷歌前设计伦理学家。

拜登承认人工智能推动的技术变革速度很快,他表示:“未来10年,我们将看到比过去50年更多的技术变革–甚至可能更多。”

鼓励两党在人工智能方面进行合作

舒默正与白宫在人工智能战略上密切合作,主持两党简报会,教育参议员有关人工智能的知识。

舒默强调了需要一种创新的方法来驾驭人工智能政策,他强调,在这个快速发展的科技格局中,典型的立法程序可能是不够的。他提议的“AI洞察论坛”将分析版权和知识产权、国家安全、就业和为最坏情况做好准备等话题。

舒默说:“人工智能发展如此之快,但也如此复杂,因此需要一种新的方法。听证会是不够的。我们需要一个所有上述方法,因为这正是人工智能的复杂性和速度所要求的。

舒默的演讲表明,人工智能的时代正在到来,现在是两党合作探索该技术未知领域的时候了。

“像我们国家历史上的许多伟大事业一样,我们必须推进两党合作和合作,”他总结道。”我们必须抛弃意识形态障碍和政治私利。只有这样,我们的努力才能取得成功。”

美国的人工智能监管:时间轴

与欧盟和中国相比,美国的人工智能监管格局仍不明确。

具体部门条例

虽然美国缺乏广泛的人工智能监管,但一些特定部门的活动为未来治理提供了线索。

值得注意的是,国家标准与技术研究所(NIST)、联邦贸易委员会(FTC)和食品和药物管理局(FDA)都发布了关于人工智能的指导意见。

关于人工智能的NIST

2023年1月26日,NIST发布了 人工智能风险管理框架1.0(RMF).

该框架是科技公司设计、开发、部署或使用人工智能系统的自愿指南。它旨在管理与人工智能相关的风险,强调值得信赖和负责任的人工智能系统开发。

RMF确定了值得信赖的人工智能系统的7个特征:

  1. 安全·控制人工智能系统或以其他方式干预人工智能系统,以防止对人类生命、健康或财产造成伤害或危害。
  2. 安全和有弹性·防范攻击并管理潜在重大事件。
  3. 可解释的和可解释的:输出是可以解释的,而不是一个“黑匣子”。
  4. 隐私增强:通过保持匿名性、保密性和控制性来保护人类自主权。
  5. 公平,有管理的偏见:促进公平和平等,减少各种偏见。
  6. 负责和透明:提供有关人工智能系统生命周期的信息,并维护治理做法,以减少潜在的危害。
  7. 有效和可靠通过持续的测试和监测,确保人工智能系统按预期运行。

FTC关于人工智能

联邦贸易委员会发出信号,加强了对使用人工智能的企业的审查。它向企业发出了各种警告,以避免不公平或误导性的做法。

官员们表示,现有法律仍然适用于各种与人工智能相关的活动。例如,联邦贸易委员会主席莉娜·汗,执法机构必须意识到, 现行法律如何适用于与人工智能有关的歧视和偏见。

FDA关于人工智能

FDA宣布计划监管人工智能驱动的临床工具和设备,用于医疗保健决策。

这是首批实用的专注于人工智能的监管文献之一,2019年首次发布。FDA的计划是在2023年扩展.

展望未来

2023年6月14日,两党提出立法,要求社交媒体公司对人工智能产生的有害内容负责。

该法案由共和党参议员乔什·霍利(Josh Hawley)和民主党参议员理查德·布卢门撒尔(Richard Blumenthal)提出,可能会为针对人工智能驱动的技术(如深度造假)造成的伤害而采取法律行动铺平道路。

欺诈者已经在使用深度伪造, 欺诈和虚假信息一位安全专家预测, 美国纳税人每年数十亿美元.

这项对第230条的拟议修正案是在上个月最高法院两起支持第230条保护范围的案件之后提出的。第230条目前为在线平台提供豁免权,使其不必对用户生成的内容负责。

第230条对于涉及像ChatGPT这样的人工智能开发人员的潜在诽谤案件至关重要,因为它目前呈现的, 针对AI产出的法律案件 很难对付 目前,1996年《通信体面法》第230条确保“交互式计算机服务”不作为用户提供的信息的“发布者或发言者”承担责任。

布鲁门撒尔称该法案是实施围绕人工智能的保障措施的“第一步”。

两党对该法案的支持表明,对人工智能监管的兴趣越来越大,舒默的声明已经证实了这一点。

共和党人和民主党人在治理人工智能的必要性上达成了广泛的共识,但在实际行动上存在分歧。

美国正在进行全面的人工智能监管,该监管可能会在2024年生效的《欧盟人工智能法案》类似的时间开始出现。

© 版权声明

相关文章

暂无评论

暂无评论...