研究人员加入公开信,倡导独立的人工智能评估

AI伦理与社会10个月前发布 yundic
490 0 0

超过100位领先的人工智能专家发表了一封公开信,要求支持生成性人工智能技术的公司,如OpenAI、Meta等,向独立测试敞开大门。

他们传达的信息很明确:人工智能开发人员的条款和条件正在限制人工智能工具安全性的独立研究工作。

共同签署者包括斯坦福大学的珀西·梁、普利策奖得主朱莉娅·昂温、斯坦福大学互联网天文台的雷妮·迪雷斯塔、Mozilla研究员Deb Raji、前欧洲议会议员Marietje Schaake和来自布朗大学的Suresh Venkatasubramanian。

研究人员认为,社交媒体时代的经验教训不应该重复,当时独立研究往往被边缘化。

为了应对这一风险,他们要求OpenAI、Meta、Anthropic、Google、Midjourney和其他公司为研究人员创建一个法律和技术安全的空间,让他们在不担心被起诉或禁止的情况下评估人工智能产品。

信中说:“虽然公司的服务条款阻止恶意使用,但它们也没有为独立的诚信研究提供豁免,这使研究人员面临账户暂停甚至法律报复的风险。

AI工具实施严格的使用策略,以防止它们被操纵绕过它们的护栏。例如,OpenAI最近将“纽约时报”的“黑客攻击”, Meta威胁要因知识产权纠纷收回许可证。

最近的一项研究探索MidJourney 揭露了许多侵犯版权的案例,这将违反该公司的T & C。

问题是,由于人工智能工具在很大程度上是不可预测的,它们依赖于人们以特定的方式使用它们来保持“安全”。

然而,同样的政策使得研究人员很难探索和理解模型。

那封信, 发表在麻省理工学院网站上他提出了两个请求:

1.“首先,法律安全港将赔偿诚信独立的人工智能安全性、安全性和可信度研究,前提是它是按照完善的漏洞披露规则进行的。

2.“其次,公司应该致力于更公平的获取,通过使用独立的审查人员来缓和研究人员的评估申请,这将保护遵守规则的安全研究免受适得其反的帐户暂停,并减轻公司选择自己的评估人员的担忧。

该信还介绍了一项由一些签署方共同起草的政策提案,该提案建议修改两家公司的服务条款,以适应学术和安全研究。

这有助于扩大对生成人工智能相关风险的共识,包括偏见、版权侵权和非自愿亲密图像的创建。

通过倡导独立评估的“安全港”,这些专家正在倡导公益事业,旨在创建一个生态系统,在这个生态系统中,人工智能技术可以被负责任地开发和部署,并将社会福祉置于首位。

© 版权声明

相关文章

暂无评论

暂无评论...