战场上的AI:出了问题谁负责?

AI意见和分析1年前 (2023)发布 yundic
142 0 0

在一个“战争游戏”不再仅仅指棋盘游戏或视频游戏,而是指由机器智能推动的生死场景的世界里,责任问题是巨大的。

军方正在加大对人工智能的研究和投资。

一些分析人士将2021年为期11天的以巴相遇定义为第一场“人工智能战争”,以色列的技术协助了战场情报和部署。

近几个月来,加仑美国军方建立了一个 产生式人工智能工作组 并成功测试了 自动人工智能动力喷气式飞机.

人工智能在战争中的作用越来越大,这带来了一系列复杂的法律和伦理困境,我们还没有回答,尽管目前正在部署人工智能驱动的军事技术。

AI出错时谁来负责?

军事技术制造商拉斐尔的“火织者”使用传感器定位敌人的位置,并建议向他们开火的最佳位置。

该产品的描述称:“火织者计算交战规则,并使用最合适的射手来指导目标和射击。

“计算”是这里的关键词 人工智能武器可能会将摧毁目标的决定提炼成是/否的二元决定,那么如果Fire Weaver将一个孩子误认为是敌军士兵怎么办?或者是人道主义救援卡车,而不是敌人的车辆?

目前,缺乏道德、伦理和法律的清晰度是显而易见的。人工智能占据了法律和道德真空,这可能会持续一段时间,因为立法是出了名的缓慢—很少遇到如此快速发展的技术。

在更广泛的社会中,已经有许多人工智能损害人们及其权利的例子。这些让我们得以一窥人工智能在立法和道德方面的空白及其各种用途。

例如, ChatGPT被指控佐治亚州男子马克·沃尔特斯被判犯有公司挪用公款罪,并指控法学教授乔纳森·特利性侵。ChatGPT在两种情况下都是假的。

同样,Getty Images和几位艺术家、作家和其他创作者也对科技公司发起了版权诉讼,指控他们使用训练数据构建模型。

培训数据通常来自Common Crawl等第三方和Bibliotik等“影子图书馆”,类似于PirateBay等Torrent网站。

那么,谁来承担侵犯版权的责任呢?AI开发者还是数据集发布者?这是一个卡通式的责任循环,每个潜在的有罪方指向他们旁边的人,最后,每个人都逃脱了责任。

在人工智能武器和算法军事战术的背景下,这种模糊的道德景观风险要大得多,在这种背景下,模型的计算可以相当字面上决定生死。

军事组织已经意识到人工智能武器带来的范式转变。根据国防部(DoD)的数据,其五个”人工智能的伦理原则“用于军事用途是“负责任”,定义为“国防部人员将行使适当水平的判断和谨慎,同时仍负责开发、部署和使用人工智能能力。

这意味着人类最终必须对机器的行为负责。军方一直依赖的原则是,必须有人–通常是指挥官或士兵–对战争期间采取的行动负责。然而,人工智能在决策过程中的角色越来越模糊。

第一个问题是,随着人工智能在目标定位、监视和其他领域扮演更复杂的角色,按下“取消”按钮是否等同于有罪?

例如,如果人工智能的预测失灵,导致平民伤亡,那么是否有人会接受事故的唯一责任就是这台机器,这是值得怀疑的。

反过来,也可能会有这样的情况,即人类在事故中所扮演的角色而被错误地指责,人类学家M.C. Elish形容为”道德崩溃区.“。”

Elish对工业和机器事故的研究表明,人类倾向于承担任何事故中的责任,即使错误在于机器、算法或最初批准该技术的决策者。

她引用了几个现实生活中的例子,例如宾夕法尼亚州三里岛的核事故和法航447航班的坠毁,这在很大程度上归因于“人为错误”,而不是分布在多个人和系统中的一系列更复杂的故障。

Elish在谈到人工智能时代的责任时说:“关于自主和机器人技术,法规、法律和规范仍在形成中,可能特别容易受到不确定性甚至逃避责任的影响。

这也引起了围绕民主进程在战争中的作用和人类决策的主权的问题。当越南战争在美国各地的起居室播出时,战争造成的伤亡直接影响了公众舆论和政策。

相比之下,人工智能辅助的战斗可以消除公众情绪和民主话语中的社会制衡。

伦理学家和哲学家托马斯·梅青格强调,伦理规范不仅仅是法律结构,也是民主进程产生的社会结构。

如果算法做出决策,那么人类的参与——以及道德责任——就会变得分散和多余。

人工智能在战争中的国际法律影响

《日内瓦公约》的支柱之一是”区别”原则,该原则要求区分战斗人员和平民。

据泄露的文件显示,技术已经证明,它未能兑现加强保护平民的承诺,在奥巴马总统任期内, 《拦截》.

人工智能算法只取决于它们所训练的数据和它们被编程遵循的规则。当涉及到战争时,算法可能会因为战争迷雾、有缺陷的训练数据或故意欺骗敌人的战术而误解数据。

红十字国际委员会(红十字委员会)已开始讨论根据现行国际人道主义法自主武器系统的合法性,但几乎没有具体定义。

他们确定现有的框架不适合人工智能带来的新挑战,而红十字国际委员会的拟议原则 “不可预测的自主武器系统应该被明确排除。

当一个微小的错误可能会造成灾难性的后果时,我们应该在哪里设置“不可预测”的门槛?

此外,战场永远在变化,并将出现“边缘案例”,这是人工智能培训中没有考虑到的盲点。构建能够以与人类相同的反应时间来响应动态环境条件的人工智能系统是非常困难的。

虽然人工智能武器可能会在典型的战场场景中保持准确性,但当环境偏离模型认为的“地面真相”或边缘情况偏离其准确性时会发生什么?

道德敏感性的侵蚀

随着现代军事战略和战术的出现,战争中的杀戮行为发生了巨大变化。

在第一次世界大战期间,历史分析和帐户,如S.L.A.马歇尔有争议的书“男人反抗火焰“这表明只有15%到25%的前线士兵开枪是为了杀人。”

今天,在千里之外操作无人机的士兵不会感受到他们行动的直接情感和心理影响,这一点从创伤后应激障碍和其他精神健康问题的发生率普遍较低就可以看出。

军事技术的设计本身就适应了“远距离战争”的新范式。用于无人机的控制器以与视频游戏控制器相似而闻名,这种设计选择可能不是偶然的。

人工智能操作员可能会在一个将战争现实抽象为屏幕上的数据点和图像的环境中做出生死决定, 我们与那些被卷入冲突的人的生命之间的最终道德联系。

我们该怎么办?

随着军事人工智能演变成许多人严重恐惧的东西,将错误和失败的责任归咎于任何一个人, 开发者、组织或整个团体似乎不太可能。

这让谁或什么人来承担责任?H我们该如何防止步入一个未来,即杀人变得更像机器而不是人类,道德责任消散为算法抽象?

随着时间的推移,越来越智能的人工系统可能会改变道德和责任的结构,特别是如果它们显示出感知或意识的迹象。

但这并不能解释目前这种情况是如何管理的,就像人工智能世界中的许多事情一样,问题多于答案。

© 版权声明

相关文章

暂无评论

暂无评论...