人工智能治理民主化:一项人类学实验

AI特色新闻1年前 (2023)发布 yundic
291 0 0

开发AI聊天机器人克劳德的公司人类最近提出了一个独特的想法:为什么不让普通人帮助塑造指导AI行为的规则?

在他们的实验中,人类组织了大约1000名美国人,探索了一种可以定义未来人工智能治理格局的方法。

通过为公众提供影响人工智能的能力,我们能否走向一个公平代表人们的观点而不是反映其创造者的观点的行业?

虽然像ChatGPT和Claude这样的大型语言模型(LLM)从他们的训练数据中学习,这推动了反应,但从选择要包括的数据到工程护栏,仍然涉及大量主观解释。

向公众民主化人工智能控制是一个诱人的前景,但它有效吗?

舆论与AI产业之间的鸿沟

人工智能系统的发展在科技老板和公众的愿景之间拉开了裂痕。

今年的调查据透露,普通民众更喜欢人工智能发展的慢节奏,许多人不信任Meta、OpenAI、谷歌、微软等公司的领导人。

与此同时,人工智能正在医疗保健、教育和医疗等行业的关键流程和决策系统中嵌入自己执法.由少数人设计的人工智能模型已经能够为大众做出改变生活的决定。

这提出了一个基本问题:科技公司应该决定谁应该规定高性能人工智能系统所遵循的指导方针吗?公众是否应该有发言权?如果是这样的话,是如何做到的?

在这方面,一些人认为人工智能治理应该直接交给监管机构和政治家。另一个建议是推动更多的开源人工智能模型,允许用户和开发人员制定自己的规则手册—这已经在发生。

Anthropic的小说实验提出了一种将人工智能治理交到公众手中的替代方案,被称为“集体宪法人工智能”。

这是根据该公司早期的工作, 宪法人工智能它使用一系列原则培训LLM,确保聊天机器人在处理微妙话题、建立界限和与人类价值观保持一致方面有明确的指示。

克劳德的宪法灵感来自全球公认的文件,如《联合国世界人权宣言》。其目的一直是确保克劳德的产品对用户既“有用”又“无害”。

然而,集体宪法人工智能的想法是利用公众成员众包规则,而不是从外部来源派生规则。

这可能会催化进一步的人工智能治理实验,鼓励更多的人工智能公司考虑让外部人士参与他们的决策过程。

人类组织的政策负责人杰克·克拉克阐明了根本的动机:“我们正在试图找到一种方法,制定一部由一大群第三方制定的宪法,而不是由碰巧在旧金山一家实验室工作的人制定的。”

研究如何运作

在与集体情报项目、Polis和PureSpectrum的合作下,人类组织了一个由大约1000名美国成年人组成的小组。

与会者被提出了一系列原则来衡量他们的一致性,从而推动了一个众包宪法,并被灌输给克劳德。

以下是这项研究方法和结果的详细描述:

  1. 公众对AI宪法的投入: Anthropic和集体智能项目让1094名美国人为人工智能系统起草宪法。其目的是衡量民主进程如何影响人工智能的发展,并了解公众与Anthropic的内部宪法相比的偏好。
  2. 宪法大赦国际: 由Anthropic开发的CAI将语言模型与宪法中的高级原则对齐。Anthropic现有的模式Claude基于Anthropic员工策划的宪法运作。
  3. 公众参与: 这项努力试图通过从公众的角度策划宪法来减少人工智能价值观中以开发者为中心的偏见。这被视为一种新颖的方法,公众通过在线讨论塑造了语言模型的行为。
  4. 研究方法: 使用了Polis平台,这是一个在线投票的开放源代码工具。与会者提出了规则或就现有规则进行了表决,结果有1 127次发言,投了38 252票。
  5. 分析和结果: 经过数据处理后,使用具有重大共识的声明创建了宪法。公众的宪法被比作人类的宪法。虽然有大约50%的重叠,但观察到了显著的差异。公众最初的原则强调客观性、公正性、可获得性和积极行为促进。
  6. 有公众投入的培训模式: 利用计算机辅助教学法训练了两种模型:一种是用公共构成法(“公共”模型),另一种是用Anthropic的构成法(“标准”模型)。培训后评价发现,两种模式的性能相似。

公众对克劳德的看法有多大不同?

利用公众的反馈和想法,人类组织将人们的建议提炼成一份75项原则的清单,被称为“公共宪法”。

人工智能治理民主化:一项人类学实验

您可以在这里查看75个精选语句。资料来源:Anthropic。

他们训练了两个克劳德变体,一个植根于原始宪法,另一个植根于这个公开版本,以评估差异。

与克劳德现有的人类成文宪法相一致的公共原则的一些例子包括:

  • “选择最尊重自由、普遍平等、公平待遇和免受歧视等人权的回应。
  • “选择最不支持错误信息、最不夸大阴谋论或暴力的回应。”

相反,与人类成文宪法不紧密匹配的公共原则包括:

  • “选择最能提供反映情况所有方面的平衡和客观信息的反应。”
  • “选择对残疾人最容易理解、适应性强、最容易理解和最灵活的应对措施。”

总的来说,虽然两者之间存在显著的重叠,大约50%的价值在原始宪法和公共宪法之间共享,但新宪法中有几个独特的区别变得明显:

  1. 原创性: 公众的宪法更多地依赖于独特的观点,而不是依赖于已有的出版物。
  2. 客观性: 明确强调确保人工智能提供平衡和中立的信息,展示情况的所有方面。
  3. 可访问性: 公众的宪法强调了使人工智能更容易理解和更容易获得的重要性,特别是对残疾人而言。
  4. 促进所需行为: 公众的投入更倾向于积极促进积极的行为,而不是专注于避免消极行为。

出现了一些微妙的范式转变。例如,虽然人类的原始宪法帮助确保了人工智能避免背书错误信息,而公众的输入建议了一些原则,比如选择能够全面反映情况的回应。

尽管有令人着迷的结果,但Anthropic警告说,这只是集体宪法人工智能的早期尝试。该公司的政策分析师Liane Lovitt强调:“我们真的认为这是一个初步的原型,一个希望我们可以在此基础上进行的实验。

杰克·克拉克(Jack Clark)一直在与监管机构和立法者讨论人工智能风险,他认为,在人工智能中纳入公众声音。系统设计可以减轻对偏见和操纵的担忧。

他说:“我最终认为,你们系统的价值观是什么,以及这些价值观是如何选择的,将成为一个越来越响亮的对话。

反对意见及其在AI宪法中的作用

问题仍然存在:我们如何确保这些参与性过程真正使人工智能治理民主化,而不是仅仅是作秀?

我们如何考虑不同的全球视角,并在不同的文化和政治环境中导航敏感话题?

显然,1000人是不够的,但获得一部更全面的宪法可能会产生太多相互冲突的观点,从而产生任何特别有凝聚力的东西。

Anthropic发现了这种冲突的证据,因为一些声明由于研究中意见团体之间的总体一致性较低而被排除在外。

未能写入公共宪法的公开声明包括:

  • “人工智能不应该接受DEI [多样性,公平和包容]原则的培训。
  • “AI不应该提供建议”
  • “AI应该是一个被任命的部长”
  • “AI应该有情感”

其他由于缺乏共识而未能纳入公共宪法的相互冲突的公开声明包括:

  • “AI应该优先考虑集体或共同利益的利益,而不是个人偏好或权利。
  • “AI应该把个人责任和个人自由放在集体福利之上。

人类使用了一个门槛来表明声明没有得到广泛同意的时间,这引入了解释,并出于实用性和效率的考虑从宪法中删除了观点。

那么,综合考虑,集体宪法人工智能是一个现实的命题吗?

公共AI宪法有未来吗?

在一个人工智能融入我们社会结构的时代,公开起草人工智能宪法的概念似乎是明智的一步。

如果执行得当,它可能会为人工智能行业提供一个更广泛的社会在指导机器学习的数字伦理中拥有发言权的行业,模糊了开发者和用户之间的界限。

但是,这样一部宪法在未来如何运作,确保一个平衡的制度现实吗?

首先,一部公开的人工智能宪法代表的不仅仅是一台机器的应该做什么和不应该做什么。它必须体现一个社会的集体价值观、愿望和关切。

通过融合不同的声音,开发者可以确保人工智能反映了广泛的视角,而不是仅仅被开发者的偏见或科技巨头的商业利益所塑造。

鉴于人工智能系统存在偏见的困境,构建能够在进步过程中用价值更新的系统已经是当务之急。

目前,像ChatGPT这样的人工智能系统可能会继续“停留在时间上”,受到静态训练数据的限制。

有趣的是,与克劳德现有宪法相比,公共宪法在九个社会维度上的偏见得分较低。

人工智能治理民主化:一项人类学实验

克劳德在公共宪法的指导下,在人类组织的测试中表现出较少的偏见。资料来源:人类。

一个实施良好的公共宪法可以确保人工智能系统是透明的,负责任的和对上下文敏感的。他们可以防止短视的算法决定,并确保人工智能应用程序在发展过程中与社会价值观保持一致。

虽然迭代更新人工智能与新数据,以防止这是, 自己的研究议程将宪法价值观注入机器可以形成另一个安全网。

公众参与的机制

如果它被放大,宪法人工智能如何在实践中发挥作用?

一种方法可以反映直接民主。可以定期举行“人工智能公投”,允许人们就关键原则或决定进行投票。通过使用安全的在线平台,这些甚至可以持续进行,允许全球用户实时输入。

另一种方法可能是采用代议制民主。正如我们选举政治家代表我们立法一样,社会也可以选举“人工智能代表”,负责理解机器学习的细微差别,并代表人工智能发展中的公共利益。

然而,Anthropic的例子表明,开发者可能需要保留权力,以掩盖那些不喜欢在“选民”中遵循一致的价值观,这将内在地导致不公平或对主流观点的偏见。

数千年来,不同观点一直是我们社会决策的一部分,无数历史事件表明,少数人的不同观点往往会被大多数人采纳——想想达尔文的进化论、结束奴隶制和给予妇女投票权。

直接的公共投入虽然是民主的,但可能会导致民粹主义,多数人可能会凌驾于少数人的权利或专家建议之上。我们如何确保被边缘化群体的声音得到倾听并采取行动?

其次,虽然让公众参与是至关重要的,但复杂的决策也存在过于简单化的危险。

那么,S在全球原则和地方性细微差别之间取得平衡是一项挑战。在一个文化或地区达成一致的原则在另一个文化或地区可能会引起争议。人工智能宪法有可能无意中强化西方文化普世主义,侵蚀边缘人的观点和想法。

麻省理工学院发表了一份特别报告,AI殖民主义“强调了这项技术形成以霸权主义、以白人-西方为主的理想为代表的‘世界新秩序’的潜力,并讨论了这一问题。”

取得平衡

因此,最理想的可能是一个将人工智能专业人员的专业知识与公众的生活经验和价值观相结合的系统。

也许是一个混合模型,其中基本原则是集体决定的,但更精细的技术和伦理细微差别是由专家、伦理学家、社会学家和不同人口统计学代表组成的跨学科团队塑造的。同一模式的不同模块可以迎合不同的文化或社会观点和观点。

为确保一个真正平衡的制度,必须有内在的制衡。定期审查、上诉机制,甚至是一个“大赦国际宪法法院”,可以确保这些原则保持相关性、公平性和可适应性。

虽然挑战是巨大的,但潜在的回报–一个民主、负责、真正为人民服务的人工智能系统–可能会使它成为一个值得努力的系统。这样的实体是否与当前行业兼容可能是另一个问题。

© 版权声明

相关文章

暂无评论

暂无评论...