智库兰德的一份报告得出结论,目前的LLM并没有显著增加非国家行为者发动生物攻击的风险。
去年10月,同一组研究人员发布了一份报告,提出了LLMS“可以协助策划和实施生物攻击”的可能性。该报告确实指出,这种情况在实践中发生的风险需要进一步研究。
去年10月,这份题为“人工智能在大规模生物攻击中的操作风险”的报告受到了“人工智能是危险的”电子/acc方面的一些人的批评。Meta首席人工智能科学家Yann LeCun说,该报告过于简化了制造生物武器所需的内容。
也许与在搜索引擎上搜索生化武器构建指令相比,LLM可以为您节省一点时间。
但话说回来,你知道怎么做所需的艰苦的实验室工作吗?Https://t.co/QnnZqUOP6X– Yann LeCun(@ ylecun)2023年11月2日
我们现在还可以
兰德公司最新的报告《当前的人工智能并没有显著增加生物武器袭击的风险》证实了勒昆的评估,并让那些有效的利他主义者松了一口气。
由兰德高级工程师克里斯托弗·A·穆顿领导的研究人员进行了一次红队演习,以了解恶意的非国家行为者可能如何利用LLM制造生物武器。
参与者的任务是策划一次生物攻击,有些人可以访问互联网和法学硕士,而其他人只能访问互联网。他们没有说出使用的LLM的名字。
其结果是,”在有或没有法学硕士援助的情况下生成的计划的可行性没有统计上的显著差异”。换句话说,ChatGPT不会告诉你任何你无法在Google上搜索到的东西。
事实上,他们的结果表明,使用LLM的团队开发的计划比那些只能访问互联网的计划更不可行。令人欣慰的是,没有一个团队能够提出一个真正可行的生物攻击计划。
随着人工智能模型变得越来越智能,这种情况可能会改变。穆顿说:“仅仅因为今天的LLM无法缩小促进生物武器攻击规划所需的知识差距,并不排除他们将来可能能够做到的可能性。
新兴的人工智能工具–特别是大型语言模型(LLM)–能否被用来发动大规模的生物攻击?
兰德的一项新研究通过一项红队演习探索了这个问题。以下是结果。Https://t.co/foFmWltIuQ