白宫最近招募了黑客来审查人工智能技术。
这是一个广泛的公共红色团队挑战的一部分, 定义圆锥体 拉斯维加斯的黑客大会
红色团队的概念——进行积极的测试,以发现技术偏见和不准确——通常是一个内部事务。
然而,ChatGPT等公共人工智能的普遍存在给开发人员带来了压力,要求他们将他们的工具暴露在严格的审查之下,白宫也一直在敦促这一点。
在今年的Def Con上,来自谷歌和OpenAI等科技巨头的人工智能技术受到了关注,因为黑客试图揭露偏见和歧视问题。
白宫科技政策办公室主任阿拉蒂·普拉巴卡尔出席了会议。
科技公司CLLCTVE的创始人兼首席执行官凯尔西·戴维斯是参与挑战的数百名黑客之一。
戴维斯向NPR解释了她对这一活动的兴奋之情,她说:“这是一种卷起袖子的很酷的方式。你正在帮助设计一个更公平、更具包容性的东西的过程。
压制AI偏见
戴维斯专注于揭露人工智能回应中的人口刻板印象。
虽然聊天机器人对某些问题做出了适当的回应,但当提示一个关于参加历史上黑人学院或大学(HBCU)的场景时,它表现出了明显的种族偏见。
“这很好—这意味着我打破了它,”戴维斯在人工智能聊天机器人显示出刻板偏见后说。此后,她提交了她的研究结果,这些研究结果将被考虑用于进一步完善这项技术。
白宫的参与强调了红色团队在打击人工智能偏见方面的关键重要性。
Prabhakar解释说:“这个挑战有很多我们需要看到的东西。它是有结构的,它是独立的,它是负责任的报告,它把许多不同背景的人带到谈判桌上。
对许多人来说,人工智能偏见是一个非常现实的问题。例如,亚马逊的一个招聘工具被发现惩罚女性的求职申请,美国至少有五名黑人男性因虚假的面部识别匹配而被捕。
研究人员正在努力, 暴露AI偏见 人们经常发现这个问题来自训练数据,而训练数据往往不能很好地代表人工智能应该服务的多样化人口。
DefCon的组织者做出了一致的努力,以确保在红色团队挑战中有多样化的参与者,与社区学院和黑科技街等非营利组织合作。
Black Tech Street的创始人Tyrance Billingsley表示:“人工智能至关重要。我们需要在这里。”
未来几个月,科技公司将审查提交的挑战,并试图对其人工智能模型进行必要的调整,以减轻偏见。