美军试行GPT-4控制的战场战术

AI伦理与社会10个月前发布 yundic
419 0 0

美国陆军正在涉足将人工智能聊天机器人集成到他们的战略规划中,尽管这是在基于流行视频游戏星际争霸II的战争游戏模拟的范围内。

研究由美国陆军研究实验室领导,分析了OpenAI的GPT—4 Turbo和GPT—4 Vision战场策略。

这是OpenAI的一部分, 在去年成立了生成人工智能特别工作组后,与国防部(DOD)进行了合作。

人工智能在战场上的应用, 热议,带有一个最近一项关于人工智能战争游戏的类似研究 发现像GPT—3.5和GPT—4这样的LLM倾向于升级外交策略,有时会导致核战争。

美国陆军的这项新研究使用星际争霸II模拟了一个涉及有限数量军事单位的战场场景。

研究人员将这个系统称为“COA—GPT”—COA代表军事术语“行动路线”,本质上描述了军事战术。

CoA-GPT承担了军事指挥官助理的角色,任务是制定战略来歼灭敌军并夺取战略要地。

美军试行GPT-4控制的战场战术

COA—GPT是一个人工智能驱动的决策支持系统,帮助指挥和控制人员制定行动路线(COAs)。它利用受预定义准则约束的LLM。指挥控制人员输入任务信息,COA—GPT生成潜在的COA—GPT。通过使用自然语言的迭代过程,人类操作员和COA—GPT协作,以优化和选择最适合任务目标的COA。资料来源:ArXiv。

研究人员指出,传统的COA是出了名的缓慢和劳动密集型。CoA-GPT在几秒钟内做出决定,同时将人类反馈整合到人工智能的学习过程中。

美军试行GPT-4控制的战场战术

说明了利用人工输入开发行动课程(COA)的迭代过程。在(a)中,COA—GPT生成一个没有人工指导的初始COA,显示部队在桥梁上的移动(蓝色箭头)和针对敌方单位的交战指令(红色箭头)。图(b)显示了人类指挥官调整后的COA,并指定友军航空部队应直接与敌方航空兵交战。最后,(c)进一步完善了行动计划,部队分裂,以对付敌人的堡垒和侦察部队,接到命令,要向北桥推进。资料来源:ArXiv。

COA—GPT优于其他方法,但有成本

COA—GPT表现出优于现有方法的性能,在生成战略性COA方面超过了现有方法, 并能适应实时反馈。

但也有缺陷。 最值得注意的是,COA-GPT在完成任务目标方面造成了更大的伤亡。

该研究指出,“我们观察到,与其他基线相比,COA—GPT和COA—GPT—V,即使在增强人类反馈时,也表现出更高的友军伤亡。

这会让研究人员却步吗?似乎不是。

该研究称:“总而言之,COA-GPT代表了一种军事C2行动的变革性方法,促进了更快、更灵活的决策,并在现代战争中保持了战略优势。”

令人担忧的是,造成比基线更多不必要伤亡的人工智能系统被定义为“变革性方法”。

美国国防部已经确定了探索人工智能军事用途的其他途径,但对该技术的准备程度和伦理影响的担忧仍在隐约可见。

例如,当军人时, AI应用程序出错?开发商?负责人是谁?或者是链上更下层的人?

人工智能战争系统已经部署在乌克兰和巴以冲突中,但这些问题在很大程度上仍未得到检验。

希望它一直如此。

© 版权声明

相关文章

暂无评论

暂无评论...