AI机器人接管社交媒体即将爆炸?–

AI伦理与社会1年前 (2023)发布 yundic
401 0 0

在日内瓦举行的联合国“AI for Good”全球峰会上,著名的以色列历史学家和作家Yuval Noah Harari发表了一篇发人深省的演讲,表达了他对社交媒体上“假人类”扩散的担忧。

Harari警告说,如果不加以控制,这些人工智能机器人的创建和传播,假装成真正的人参与农场,可能导致公众信任的崩溃,并危及民主的基础。

作为一种平衡,哈拉里建议我们对那些创建虚假个人资料的人实施严厉的刑事处罚,并强调情况紧急,如果我们希望控制这项技术,人工智能安全研究必须成为优先事项。

假人类的迅速出现

随着人工智能技术的进步,特别是像ChatGPT这样的大型语言模型,人工智能机器人不仅能够放大人类生成的内容,还能够大规模创建自己的内容。

规模是这里的关键词…

想象一下,社交媒体平台充斥着数百万人工智能机器人,所有这些机器人都能够制作优于普通人的内容。

这个场景看起来就像是直接从黑镜写作室里剪出来的,但随着人工智能的不断发展,这是一个不可否认的可能性。

随着数以百万计的人工智能机器人与真人一起发帖,我们将面临一种情况,即“真实的”和基于人工智能的内容变得几乎无法区分–从而破坏了文化,以及整个全球话语。

这种对城市广场的控制权的丧失,也会在某种程度上剥夺民主的本质,即思想民主和思想自由。

维护民主+犯罪后果的必要性:

回到Harari,他提出了一个很好的观点,他认为,正如政府有严格的规则来保护金融体系免受假币的侵害一样,也应该采取类似的措施来保护公众的信任,不受假货的侵害。

通过刑事指控追究责任人的责任,我们的平台可以防止被虚假个人资料淹没。

投资AI安全+致力于研究

哈拉里强调了在人工智能安全方面投入大量资金的重要性。他建议,应从法律上要求企业将20%的投资支出用于研究潜在风险,并制定有效管理风险的策略。

哈拉里肯定了ChatGPT的创造者OpenAI的努力,提到了他们承诺将20%的计算能力分配给AI安全,建立一个专门的研究团队,旨在了解和控制AI,从而防止它变得无赖。

全球合作

哈拉里继续说,对人工智能和数据收集的有效监管必须是一项全球努力。他警告说,如果没有国际合作,世界可能会变得支离破碎,变成由少数几个国家和公司控制的数据收集领域。

为了防止反乌托邦的未来,Harari强调需要制定规则,优先保护个人数据,防止数据操纵,加强对公司和政府的监督,并避免所有数据集中在一个实体。

结论—维护公众信任

社交媒体上人工智能机器人的崛起对民主社会构成了重大威胁,尤瓦尔·诺亚·哈拉里呼吁追究责任人的刑事责任,并增加对人工智能安全的投资。

通过施加严格的惩罚和实施全面的监管,社会可以保护公众的信任,维护民主价值观,并确保人类仍然控制着公共对话。现在是采取行动的时候了,为我们不断变化的数字世界确保一个更安全、更具弹性的未来。

© 版权声明

相关文章

暂无评论

暂无评论...