人工智能可以用其表面上的客观性蒙蔽我们,而在现实中,它是非常主观的,容易产生偏见。
许多研究强调, 人工智能相关偏倚皮肤较深的人和女性会感受到这种影响。
有偏见的人工智能有很多历史教训,包括亚马逊失败的招聘模式,该模式未能公平地推荐女性担任科技角色,以及面部识别模式,该模式错误地识别了几名黑人男性,导致旷日持久的法律问题。
随着人工智能深入我们的日常生活,偏见的问题变得至关重要,因为其中一些系统正在代表我们做出改变生活的决定。
女性担心人工智能系统不能使男性受益或服务于男性,导致决策不佳和不公平。
来自英国德蒙福特大学的计算与社会责任研究员凯瑟琳·弗里克(Catherine Flick)评论说:“这是对以技术为中心的父权制社会的强化,它再次将性别偏见编码成看似‘中性’的技术。
弗立克指出,即使是我们认为中性的技术,如汽车或现代医学,也未必能像满足男性那样有效地满足女性的需求。
麦肯锡的 最近的预测这表明,人工智能可能会取代工作,女性比男性更容易受到人工智能取代工作的影响。
人工智能开发公司HuggingFace的萨莎·卢西奥尼博士在谈到亚马逊失败的招聘项目时,直接对包含“女性”或“女性”这个词的申请产生了偏见,他说:“数据中女性的比例太低了,所以只要出现‘女性’,该模型基本上就会拒绝。”
一些用于机器学习(ML)基准测试的经典数据集被曝光为主要由白人男性组成。
卢乔尼继续说,“在这一领域工作的妇女很少,很少有妇女在谈判桌上占有一席之地。她解释说,这种缺乏代表性很重要,因为算法带有价值。如果创作者以男性为主,这些价值观可能无法反映出不同的视角。
这种性别不平衡在人工智能培训数据中也很明显。许多大型语言模型,如ChatGPT,使用Reddit等平台的数据集进行训练,其中约三分之二的用户是男性。因此,这些人工智能系统可能会产生反映男性偏见对话的结果。
解决 AI的偏见 弗立克认为,需要一个整体的方法。
从数据收集到工程阶段,这一过程需要更大的多样性。她坚持说:“如果输入的数据不够好,甚至不应该进入工程阶段。”