AI在2024年达沃斯世界经济论坛上加入了乌克兰、普京和中东冲突等话题。
这次活动见证了关于这项技术的证据分散的辩论,政界人士和联合国官员将他们的观点与OpenAI首席执行官Sam Altman和微软首席执行官Satya Nadella等行业领袖混合在一起。
在论坛之前,世界经济论坛的《2024年全球风险报告》将人工智能驱动的错误信息和虚假信息置于最前沿,远远超过了气候变化、战争和经济破坏。
Marsh McLennan的欧洲首席商务官Carolina Klint是该报告的合作者, 告诉CNBC 在报告中,“人工智能可以建立模型,以一种我们从未见过的方式影响大量选民。这将如何发展对我们来说是非常重要的。“
人工智能错误信息和选举干预是活动本身的关键话题,辩论权衡了人工智能驱动的生产力和效率的优点与错误信息、深度造假和其他潜在灾难性后果的缺点。
总体而言,这场辩论的基调表明,比起更抽象、更长期的灭绝级别的后果,这场辩论更关注人工智能的短期风险。随着今年的重大选举即将到来,人们越来越担心人工智能可能会被用来影响投票行为。
代表人工智能行业的人有时持谨慎乐观态度,有时持乐观态度,有时持怀疑态度,有时对该行业应对这些风险的能力持怀疑态度。
让我们来看看本周有关人工智能的一些关键政治见解:
联合国秘书长安东尼奥·古特雷斯:对人工智能持谨慎立场
安东尼奥·古特雷斯就人工智能快速扩张带来的风险传递了一个强有力的信息,特别是批评了大型科技公司的行为。
他警告说,“强大的科技公司已经在追求利润,不顾人权、个人隐私和社会影响。
古特雷斯强调了人工智能的更广泛影响,并将人工智能带来的挑战与气候危机相提并论,并指出缺乏解决这两个问题的全球战略。
古特雷斯强调了合作治理的迫切需要,他说:“我们迫切需要政府与科技公司合作,制定当前人工智能开发的风险管理框架;以及监测和减轻未来的危害。
Ursula von der Leyen:一个更乐观的观点
与此同时,欧盟委员会主席Ursula von der Leyen对人工智能提出了更乐观的展望。
在她的演讲中,她承认了潜在的风险,但也强调了人工智能带来的机遇。Von der Leyen说:“如果以负责任的方式使用人工智能也是一个非常重要的机会。
Von der Leyen还强调了帮助利用人工智能潜力的举措,并提到了一项将欧洲人工智能初创公司与欧洲大陆超级计算机的计算能力连接起来的提议。
她将这一举措与微软与ChatGPT的做法进行了比较,她说:“我们将为欧洲初创公司和(中小型企业)提供使用我们自己世界级超级计算机的机会。
围绕人工智能的地缘政治冲突
中国总理李强向跨国公司推销投资中国经济。由于美国长期实施贸易限制,中国经济面临挑战。 例如,NVIDIA一再被阻止向中国发货其专注于人工智能的GPU。
李强在最近的讲话中表达了对人工智能的谨慎立场。他尖刻地说:“人类必须控制机器,而不是让机器控制我们。”
他强调了负责任发展的必要性,并补充道,“人工智能必须被引导向有利于人类进步的方向发展,因此在人工智能发展中应该有一条红线–一条不能逾越的红线。”
李强提出了加强中西方经济合作的五点计划。
他强调需要加强宏观经济协调,以中国为中心的供应链畅通无阻,加强环境目标方面的合作,加强技术合作。
虽然他没有直接提到美国,但他一再以负面的方式暗示未指明的国家,象征性地指美国。
李彦宏的目的是安抚那些因中国经济放缓和政府干预增加而对其变得警惕的全球投资者。他强调,投资中国市场是机遇,而不是风险,并表示共产党欢迎外国投资者。
在李克强的演讲之后,乌苏拉·冯·德莱恩在达沃斯的演讲围绕民主和西方价值观展开。她多次提到民主和自由,把欧洲描绘成应对全球挑战的全球领导者,并强调合作的重要性。
然而,世界各国领导人之间的分歧是显而易见的,因为美国代表团的许多成员在中国会谈之前已经离开,这再次表明我们已经习惯了象征性的争执。
竞选活动中对人工智能的担忧与日俱增
民主与技术中心首席执行官Alexandra Reeve Givens对在选举中使用人工智能表示担忧,并列举了过去技术被用来影响投票行为的情况。
这本身并不是新概念。然而,关键是人工智能为虚假宣传带来了前所未有的现实主义,并帮助扩大机器人呼叫等可疑策略。
在以前的选举周期中,我们看到过机器人通话。我们已经看到了自动短信竞选活动,它们向选民发送关于他们的投票地点、他们的投票是公开的还是有针对性的错误信息,以及旨在影响他们行为的操纵信息。
她认为生成人工智能将如何加剧这些问题:“生成人工智能使目标更容易。[…]现在比以往任何时候都更容易提出那些量身定制的、个性化的信息。”
科技公司为自己对深度造假采取行动的能力进行了辩护。OpenAI首席执行官萨姆·奥特曼(Sam Altman)提到了他的公司在美国大选前制定的近期战略, Google EMEA业务和运营总裁Matthew Brittin谈到了大型语言模型(LLM)在打击错误信息方面的潜力。
“我们希望处于这样一个位置,即我们的生成人工智能生成的任何东西都可以被如此不可见地水印,即使使用了视频片段或图像片段,它也可以自动检测到,”Brittin解释说,指的是在人工智能生成的内容中嵌入数字水印的Google DeepMind工具SynthID。
到目前为止,几乎没有证据表明这些技术在大规模上有效地发挥作用。例如,a 加州大学的研究人员在10月份发表的一篇论文得出结论:“所有看不见的水印都很脆弱。
此外,即使像DALL—E这样的商业AI图像生成器使用了有效的水印,公司通常也没有义务这样做。
这也有另一面,因为在真实图像中添加人工智能水印意味着坏演员可以诋毁真实图像为假,称为“骗子的红利”。
今年,人工智能将继续在政治话语中占据重要地位。