世界道德数据基金会拥有超过25,000名成员,包括Meta、Google和Samsung等领先科技公司的专业人士,该基金会已经为道德人工智能开发创建了一个开放框架。
新提出的框架提出了一个围绕3个关键人工智能开发过程的84点问题清单:
- 数据选择和摄取
- 创建或选择算法和模型
- 管理测试数据和标记
这封公开信描述了“我—我们—它:负责任的人工智能的开放标准”,旨在简化人工智能开发,同时使其透明、道德和包容。
它简单且非技术性,旨在促进围绕人工智能开发的辩论。
你可以的在这里查看并签名.
该提案还回应了决策者跟上人工智能监管的迫切需要。 它认为,虽然像欧盟人工智能法案这样的立法至关重要,但科技界可以主动为人工智能开发制定可操作的标准。
根据世界伦理数据基金会董事会顾问文斯·林奇的说法,人工智能社区目前正处于“狂野西部阶段,它只是在某种程度上:‘把它扔出来,看看它的进展如何。’”
发起该框架的林奇警告说,围绕知识产权和人权的人工智能相关问题,这些问题与深度造假和人工智能支持的欺诈行为一起构成直接风险。
AI的开放框架:有什么意义吗?
开放和自愿的框架鼓励辩论,但很难说它们是否等于实际行动。
OpenAI首席执行官Sam Altman此前曾主张, 开放式框架 与我们在其他行业观察到的情况相似。其他技术领袖和欧盟官员呼吁在《欧盟人工智能法案》等立法生效之前实施临时法规。
到目前为止,人工智能开发一切如常,像Inflection这样的公司正在建设庞大的人工智能培训基础设施,超过了我们所见过的任何东西。
欧盟 敦促科技公司采取行动 特别有害的人工智能内容,包括深度造假,这些内容已经违反了欧盟《数字服务法》等规则。
5月下旬,欧盟和美国领导人在瑞典会晤时,他们讨论了一个潜在的监管“止损”,以减缓人工智能的发展,但没有实质性证据表明人工智能的发展轨迹已经改变。
自愿性规则的问题在于,它们只是自愿的。人工智能公司可能会辩称,他们已经在回答世界伦理数据基金会提出的问题。
即使是强制性的规则也不能保证实现其目标,降低人工智能的风险在很大程度上是一项正在进行的工作。