拥有人工智能能力的无人机现在正在自主识别和与乌克兰的目标交战。
根据一个《新科学家》(New Scientist)报道,几乎可以肯定的是无人机袭击 在没有人类操作员直接指挥或监督的情况下杀害俄罗斯士兵,尽管缺乏官方数据。
在这一发展中的关键参与者是Saker Scout四轴飞行器,这是最近交付乌克兰服务。
这架无人机可以运输3公斤重的有效载荷,跨越约12公里。这种性质的无人机,在远程操作时,已经证明了其在俄罗斯和乌克兰之间持续的冲突中的价值。这种特殊的重型坦克甚至对重型装甲坦克构成威胁。
Saker是一家成立于2021年的乌克兰企业,最初的目标是为小企业提供负担得起的人工智能解决方案,特别是为农业等领域的无人机提供人工智能驱动的视觉系统。
但随着俄罗斯的入侵,该公司过渡到支持军队。他们的人工智能视觉平台现在可以识别大约64种不同类型的“军事物体”,其中包括车辆和其他硬件。
尽管Saker童子军具有自主能力,但它也可以手动控制。在手动模式下,人工智能指示目标和地点,并在攻击之前验证它是什么。这架无人机与乌克兰的三角洲情报分发系统集成在一起,从各种空中和卫星来源获取数据,以构建战场的整体视图。
此外,无人机具有双重自主功能。它既可以被派往某个地区进行侦察,也可以被“指示自动发现和攻击目标”。
正如这位发言人向《新科学家》传达的那样,Saker Scout已经看到了自主模式下的行动,强调了自主军事技术在战场上的部署——这是许多人担心的。
这位发言人强调,自主使用无人机并不像人工操作那样万无一失,但人工智能已经证明了它的有效性,没有必要等到它完美无瑕。
乌克兰数字化转型部长Mykhailo Fedorov在反思战争不断演变的动态时表示,自主武器代表了无人机技术“合乎逻辑且不可避免”的进步。
新美国安全中心的Paul Scharre在评论这项技术的普遍性时说:“图像分类器已经存在了至少10年,这种类型的软件可以很容易地下载并在合适的数据上进行训练。
他进一步表达了对无人机误识别目标的担忧,称“到目前为止展示的系统存在一定程度的误报,这是意料之中的。
包括联合国在内的世界各地的当局多年来一直在考虑有关自主武器的监管措施。
联合国2021年的一份报告暗示,2020年可能在利比亚部署自主攻击无人机,但这仍未得到证实。目前,没有详细的立法来规范自主武器的使用。
美国国防部(DoD)创建了五个“人工智能的伦理原则”,包括“负责”,定义为“国防部人员将行使适当水平的判断和谨慎,同时仍负责人工智能能力的开发、部署和使用。
虽然这样的规则意味着控制人工智能武器的意图,但如果没有“适当的判断和关注水平
关于这一点,Scharre说,”辩论的一个中心特点是这种武器遵守战争法和避免平民伤亡的能力”。
道德困境
自主武器摆姿势 许多伦理问题.
如果他们出了问题,谁来负责?当他们错误地识别“目标”,可能导致平民伤亡时,会发生什么?也许是最反乌托邦的,如果人工智能武器打开他们的操作员或流氓?
到目前为止,这些技术仍然罕见,我们对它们安全性的证据有限。
虽然乌克兰的公开战场可能会给平民带来最小的风险,但在更拥挤的地方,比如巴勒斯坦,情况可能就不是这样了。
人工智能在战场上的作用越来越大或许是不可避免的,这项技术有望实现智能、可扩展和成本效益高的操作,而不会让一方的人员处于危险之中。