伦敦地铁部署人工智能监控实验

AI伦理与社会10个月前发布 yundic
435 0 0

伦敦地铁在长达一年的试验中使用了人工智能监控技术。

从2022年10月到2023年9月,伦敦交通局(TfL)在位于伦敦西北部的威勒斯登绿色地铁站测试了11种不同的算法。

根据获得的详细文件, 有线试验包括监测数千名乘客的行动、行为和肢体语言,以识别潜在的犯罪活动和安全隐患。

人工智能软件与现场闭路电视录像(这是机器学习的计算机视觉(CV)分支)相关联,经过训练,以识别攻击性行为,武器,逃票和事故,例如人可能掉到铁轨上。

英国警方此前曾尝试过人工智能监控,并继续在一些公共活动中这样做,就像他们在一个 Beyonce去年演唱会.

然而, 这是 常常是无效的, 人权组织批评这项技术,称它是对隐私的侵犯,是偏见和歧视的根源。

人工智能视频技术有一个问题的历史, 全世界许多项目交付不足 有时候会把肤色较深的人和他们没有犯下的罪行联系起来。

在TfL的整个试验期间,产生了大约44,000个警报,其中大约19,000个直接转发给工作人员进行干预。

官员们在中央电视台的视野内挥舞着砍刀和枪支等武器参加了测试(尽管在车站关闭的时候),目的是更好地训练人工智能。

以下是结果的完整列表:

  1. 警报总数:人工智能系统发出了超过44 000次警报。
  2. 向车站工作人员提供实时警报:19 000份实时交付给驻地工作人员,以便立即采取行动。
  3. 逃票警报:人工智能系统产生了26,000个与逃票活动有关的警报。
  4. 轮椅警报:车站有59次关于轮椅使用者的警报,该车站缺乏适当的轮椅进出设施。
  5. 安全线警报:向在站台上越过黄色安全线的个人发放了近2 200张。
  6. 平台边缘警报:该系统为靠在站台边缘的人发出了39个警报。
  7. 延长板凳坐警报:近2,000个警报是针对长时间坐在长椅上的个人发出的,这可能表明各种担忧,包括乘客福祉或安全风险。
  8. 攻击性行为警告:有66个与攻击行为有关的警报,尽管由于训练数据不足,人工智能系统难以可靠地检测到此类事件。

然而,人工智能系统在某些情况下表现不佳,导致错误的结果,例如标记儿童通过票务障碍作为潜在的逃票。

根据伦敦交通局的说法,最终目标是培养一个更安全、更有效的管道,保护公众和工作人员。

人工智能监控技术在用于公共安全时本质上并不可怕,但一旦该技术存在,控制它是一项棘手的工作。

已经有证据表明英国公共部门存在人工智能滥用,其他国家的丑闻表明,如果不小心处理,这是一个滑坡。

© 版权声明

相关文章

暂无评论

暂无评论...