在日内瓦举行的联合国“AI for Good”全球峰会上,著名的以色列历史学家和作家Yuval Noah Harari发表了一篇发人深省的演讲,表达了他对社交媒体上“假人类”扩散的担忧。
Harari警告说,如果不加以控制,这些人工智能机器人的创建和传播,假装成真正的人参与农场,可能导致公众信任的崩溃,并危及民主的基础。
作为一种平衡,哈拉里建议我们对那些创建虚假个人资料的人实施严厉的刑事处罚,并强调情况紧急,如果我们希望控制这项技术,人工智能安全研究必须成为优先事项。
假人类的迅速出现
随着人工智能技术的进步,特别是像ChatGPT这样的大型语言模型,人工智能机器人不仅能够放大人类生成的内容,还能够大规模创建自己的内容。
规模是这里的关键词…
想象一下,社交媒体平台充斥着数百万人工智能机器人,所有这些机器人都能够制作优于普通人的内容。
这个场景看起来就像是直接从黑镜写作室里剪出来的,但随着人工智能的不断发展,这是一个不可否认的可能性。
随着数以百万计的人工智能机器人与真人一起发帖,我们将面临一种情况,即“真实的”和基于人工智能的内容变得几乎无法区分–从而破坏了文化,以及整个全球话语。
这种对城市广场的控制权的丧失,也会在某种程度上剥夺民主的本质,即思想民主和思想自由。
维护民主+犯罪后果的必要性:
回到Harari,他提出了一个很好的观点,他认为,正如政府有严格的规则来保护金融体系免受假币的侵害一样,也应该采取类似的措施来保护公众的信任,不受假货的侵害。
通过刑事指控追究责任人的责任,我们的平台可以防止被虚假个人资料淹没。
投资AI安全+致力于研究
哈拉里强调了在人工智能安全方面投入大量资金的重要性。他建议,应从法律上要求企业将20%的投资支出用于研究潜在风险,并制定有效管理风险的策略。
哈拉里肯定了ChatGPT的创造者OpenAI的努力,提到了他们承诺将20%的计算能力分配给AI安全,建立一个专门的研究团队,旨在了解和控制AI,从而防止它变得无赖。
全球合作
哈拉里继续说,对人工智能和数据收集的有效监管必须是一项全球努力。他警告说,如果没有国际合作,世界可能会变得支离破碎,变成由少数几个国家和公司控制的数据收集领域。
为了防止反乌托邦的未来,Harari强调需要制定规则,优先保护个人数据,防止数据操纵,加强对公司和政府的监督,并避免所有数据集中在一个实体。
结论—维护公众信任
社交媒体上人工智能机器人的崛起对民主社会构成了重大威胁,尤瓦尔·诺亚·哈拉里呼吁追究责任人的刑事责任,并增加对人工智能安全的投资。
通过施加严格的惩罚和实施全面的监管,社会可以保护公众的信任,维护民主价值观,并确保人类仍然控制着公共对话。现在是采取行动的时候了,为我们不断变化的数字世界确保一个更安全、更具弹性的未来。