英格兰银行的新研究认为,金融系统可能会受到有偏见的人工智能决策的威胁。
英国央行(Bank of England)的新研究表明,算法可以反映数据集中固有的偏见,并表现出对消费者或专业人士的不公平待遇。
英格兰银行分析师凯瑟琳·布莱克表达了她对这一趋势的担忧。她评论说人工智能驱动的歧视和偏见 可能会破坏信任,从而危及金融体系。
此外,她指出,部署这种“有偏见或不公平的人工智能”的公司可能会使自己面临重大的法律和声誉风险,导致监管机构的审查。
此外,英国科学、创新和技术部还表示:“我们正处于人类历史的十字路口,转向另一条道路将是人类失去的巨大机遇。”
在阐述她的观点时,布莱克女士提到了一些引起偏见的与人工智能相关的显著事件。例如,苹果和高盛开发的一种用于信用卡申请评估的算法受到了抨击,据报道,女性的信用额度低于男性同行。
这一差异在2021年引起了纽约州金融服务部的注意。
他们的调查结果表明,虽然这一行为不是故意的,但它“表明了客户服务和透明度方面的缺陷”。
布莱克还提到, 亚马逊的招聘算法凸显了其固有的偏见。她说:“女性申请者的评分是负面的,因为该算法是根据提交给公司的10年简历进行训练的,反映了该行业的男性主导地位。
这导致亚马逊在2018年停止使用该工具,因为它意识到其对使用“女子国际象棋俱乐部队长”等术语的候选人进行了不公平的处罚。
亚马逊有偏见的招聘机器人是一系列偏见和偏见的人工智能模型的一部分, 失败的少数群体 和 妇女.
在没有严格审查的情况下将人工智能集成到金融基础设施中可能会使偏见和歧视问题长期存在。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...