预测性警务未能实现其目标并面临歧视风险

AI特色新闻7个月前发布 yundic
233 0 0

1956年,菲利普·K。迪克写了一部名为《少数派报告》的中篇小说,它编织了一个未来的网络,在那里,“少数派”可以在犯罪发生之前预见犯罪。

几十年后,汤姆·克鲁斯将这一可怕的愿景搬上了大银幕,根据这些预测追捕潜在的罪犯。

这两个版本都迫使我们思考因为你将来可能做的事情而被捕的道德含义。

今天,随着预测性警务方法慢慢进入现代执法部门,人们必须问:我们是否正处于实现迪克的先见之明的风口浪尖?

什么是预测性警务,它是如何运作的?

预测性警务融合了执法和高级分析,利用机器学习在犯罪活动展开之前对其进行预测。

纸面上的前提很简单:如果我们能破译隐藏在历史犯罪数据中的模式,我们就能设计出预测未来发生的算法。

这个过程首先收集历史犯罪记录、监控信息、社交媒体聊天,甚至天气波动等细微差别。然后,这个庞大的信息库被输入到复杂的机器学习模型中,这些模型旨在识别潜在的模式。

例如,该模型可能会发现,在下雨的周末晚上,某个特定的社区见证了入室盗窃事件的激增。

一旦这些相关性被梳理出来,先进的软件平台就会将它们转化为视觉表示,通常类似于突出可能的犯罪热点的“热图”。这反过来又使警察能够积极主动地分配资源,优化巡逻和干预。

一些模式更进一步,按姓名和地址列出人员,为官员提供高度具体和本地化的预测。

预测警务的历史

预测警察技术仍处于萌芽阶段,虽然该行业中有一些有影响力的参与者,如Palantir,但该行业规模很小。

2022年6月,芝加哥大学 开发了一个人工智能模型 能够预测城市内的犯罪地点和犯罪率,据称准确率为90%。

根据2014年至2016年的公开犯罪数据,该团队将芝加哥划分为约1000英尺(300米)的正方形。该模型可以提前一周预测犯罪发生概率最高的平方。

这项研究具有诚实的意图,揭示了警察工作和资源分配方面的空间和社会经济偏见。研究发现,富裕社区比低收入地区获得了更多的资源。

用这项研究的话说,“我们在这里表明,虽然预测模型可能会通过刑事监控来增强国家权力,但它们也通过追踪犯罪执法中的系统性偏差来实现对国家的监控。”

此外,该模型使用了来自其他七个美国城市的数据进行训练,结果类似。所有数据集和算法都已在GitHub上提供。

芝加哥是数据驱动和人工智能辅助警务的重要案例研究。另一个例子是, 枪支犯罪热图,它确定了可以用于警务工作的犯罪“热点”。

预测性警务未能实现其目标并面临歧视风险

芝加哥的枪支犯罪热图提供了可以提供机器学习模型的数据。来源:芝加哥数据门户网站。

2013年发生的一个值得注意的事件——在预测性警务的初期, 罗伯特·麦克丹尼尔斯他是芝加哥奥斯汀区的一名居民,该区的枪支犯罪占该市90%。

尽管麦克丹尼尔的非暴力记录,但他被列入一个潜在的暴力罪犯名单,使他两次成为枪支暴力的目标,凭借警察出现在他的门上,并使他成为目标。

The Verge的一项调查称,《芝加哥论坛报》的一名记者联系了麦克丹尼尔,谈到了这份非正式的名单–警方为标记潜在枪手和目标的算法指定了一个非官方的名字。

Ishanu Chattopadhyay,2022年芝加哥大学的首席研究员 犯罪预测项目强调他们的模型预测的是地点,而不是个人。”这不是少数派报告,”他说—但麦克丹尼尔斯事件肯定画了一些相似之处。

在谈到对偏见的担忧时,Chattopadhyay指出,他们故意省略了公民举报的轻微毒品和交通违法行为,重点放在更频繁举报的暴力和财产犯罪上。

但是,研究表明,黑人比白人更经常被举报犯罪。因此,黑人社区被不公平地贴上了“高风险”的标签。

此外,在一个地区加强治安意味着更多的报告犯罪,创造了一个扭曲犯罪观念的反馈回路。

然后,依赖过去的数据会使陈规定型观念永久化,忽视变革和康复的潜力。

预测性警务的表现如何?

毫无疑问,预测性的政策是高度争议的,但它甚至有效或实现其基本目的吗?

2023年10月的调查, 标记和有线 暴露出明显的失败,增加了越来越多的证据,突出了将执法决策转移到机器上的危险和缺点。

重点节目是 格利亚蒂卡这是新泽西州普莱恩菲尔德警方使用的预测警务软件。值得注意的是,普莱恩菲尔德的警察局是38个部门中唯一一个愿意与媒体分享数据的部门。

这款机器学习软件以前被称为PredPol,已被多个警察部门收购。

Markup和Wired分析了2018年2月至12月期间Geolitica的23,631项预测。其中,只有不到100个预测符合真实犯罪案例,导致成功率不到0.5%。

这些预测模型一直存在争议,引发了许多伦理问题,即它们是否可能强化人工智能和执法领域普遍存在的歧视和种族主义偏见。

最近的这项调查强调了道德困境,并质疑该软件在预测犯罪方面的效力。

虽然该软件显示出不同犯罪类型的预测准确性略有差异(例如,它正确预测了0.6%的抢劫或严重袭击,而0.1%的抢劫或严重袭击),总体的叙述仍然是一个严重的表现。

普莱恩菲尔德警察局队长大卫瓜里诺的坦率回应揭示了地面的现实。“为什么我们会得到PredPol?我们希望提高减少罪案的效率。」

“我不确定它实现了这一点。我们很少,如果有的话,使用它。他还提到警察局停止使用它。

Guarino上尉建议,分配给Geolitica的资金——相当于20500美元的年度订阅费,加上第二年的额外15500美元——可能更有效地投资于以社区为中心的项目。

Geolitica计划在年底前关闭运营。

记录预测性警务中的偏见的证据

预测性警务的前景仍然诱人,特别是在警察力量日益紧张、人类警察决策质量受损的情况下。

美国、英国和包括法国在内的几个欧洲国家的警察部队面临对少数群体偏见的审查。

英国上议院和下议院的议员都在敦促, 暂时停止 警方部署实时面部识别技术

此前,警务部长克里斯·菲利普(Chris Philip)讨论了允许警察从护照数据库中获取4500万张照片,用于警方面部识别。到目前为止,65名议员和31个权利和种族平等组织反对在警务中使用面部识别技术。

倡导组织 big brother watch 英国警方89%的面部识别警报未能达到目的,对少数族裔群体和女性造成的不良后果不成比例。2018年伦敦大都会警察局的一项面部识别试验令人沮丧, 成功率仅为2%左右

正如来自Ada Lovelace研究所的Michael Birtwistle所描述的那样:“面部识别技术的准确性和科学基础受到高度争议,其合法性也不确定。

在美国,哥伦比亚大学(Columbia University)、AI Now Institute(AI Now Institute)和其他机构的一个合作项目最近分析了涉及算法的美国法庭诉讼。

研究发现,人工智能系统经常仓促实施,没有适当的监督,主要是为了削减成本。不幸的是,由于固有的偏见,这些制度经常导致宪法问题。

至少有四名黑人男子在美国被错误逮捕和/或监禁,等待不正确的面部匹配,包括 尼吉尔·帕克斯错误地, 他们被控在商店行窃和道路犯罪,尽管距离所谓的事件有30英里。他随后在监狱里呆了十天,不得不支付数千美元的律师费。

预测性警务未能实现其目标并面临歧视风险

Nijeer Parks因面部识别而被捕,尽管距离所谓的事件有30英里远。资料来源:CNN。

研究作者得出结论“这些人工智能系统在没有有意义的培训、支持或监督的情况下实施,也没有对接收者提供任何具体的保护。 这部分是由于采用这些措施是为了在单一技术采购模式下节省成本和实现标准化,而这种模式很少考虑到宪法责任关切。

预测性政策可能会鼓励不自然的决策

即使预测性政策是准确的,人类也需要根据预测采取行动,这就是事情变得混乱的地方。

当一个算法告诉警察他们需要在某个地方,因为犯罪正在发生/可能发生时,认为这扭曲了决策是远远不是不可行的。

在考虑人工智能在警察中的角色时,有几个基本的心理学理论是明智的。

首先,当一个算法通知警方可能的犯罪现场时,它可能会促使他们通过预期的镜头来看待情况。这可能在麦克丹尼尔斯事件中起到了作用-警方赶到现场时预计会发生事件,引发事件在动荡的环境中升级。

这源于确认偏见,这表明一旦我们有了一条信息,我们倾向于以与最初信念一致的方式寻找和解释后续信息。

当一个人被算法告知犯罪可能发生时,他们可能会无意识地给予更多的权重,以证实这一预测的线索,而忽略那些与之相矛盾的线索。

此外,算法,特别是在官方身份使用的算法,由于其计算性质,可以被视为权威性的,官员可能会过度信任它们。

此外,还有道德脱节的风险。军官们可能会将他们行动的责任转移到算法上,认为是软件发出了命令,而不是他们–这在战争领域也是高度相关的。

这里的辩论与围绕人工智能在战场上的使用的辩论平行,这提出了一些类似的困境。

人工智能强加的权威可能会导致“问责缺口”,没有人对人工智能犯下的错误负责,正如凯特·克劳福德和杰森·舒尔茨在最近的一份报告中所强调的那样, JSTOR文章.

总而言之,从我们目前掌握的证据来看,预见性警务往往会使偏见持续存在,而不是减少。

当预测与人类决策相结合时,其影响可能是灾难性的。

© 版权声明

相关文章

暂无评论

暂无评论...