最近的一项实验发现,人类只能在48.2%的时间内正确识别人工智能生成的人脸。
的 学习315名参与者的任务是区分真实面孔和人工智能生成的面孔。这些人脸是使用StyleGAN2合成的,StyleGAN2是一种最先进的引擎,能够创建多样化和逼真的人类肖像。
结果既令人着迷,又让人略感不安;参与者识别人工智能生成的人脸的能力徘徊在48.2%左右–比抛硬币还差。
这是这表明,对于普通人来说,人工智能深度假面孔几乎与真人的面孔无法区分。
你可以亲眼看到这些面孔是多么的逼真, this-person-does-not-exist.com它显示了几乎任何人、任何年龄或任何背景的真实AI生成的图像。这个工具已经有几年的历史了。
像是你认识的人?这个人不存在。
更深入的研究还探讨了某些种族和性别是否更难正确分类。
研究发现,白人面孔,尤其是男性面孔,最难被参与者正确识别为真实面孔或人造面孔。
根据这项研究,发生这种情况的原因可能源于人工智能训练数据集中白人面孔的过度代表性,导致更真实的白色合成面孔。
研究中使用的面部示例。资料来源:PNAS。
更有趣的是,参与者认为合成面孔比真实面孔更值得信赖,尽管差距不大。 这可能暗示了对人工智能倾向于生成的平均特征的潜意识偏好,该研究指出,先前的研究发现这些特征更值得信赖。
有人将人工智能图像解释为比真实图像更值得信赖的可能性略有增加,一旦扩大到人口水平,这就非常令人担忧。
大脑对人工智能生成的人脸的解释是复杂的
一 最近的第二项研究 让参与者在从事一项旨在分散他们注意力的任务时,识别一张脸是否真实。
他们无法有意识地区分两者,但当他们的大脑活动被使用脑电图(EEG)测量时,事情变得更加混乱。
在观看面部大约170毫秒后,当参与者观看真实图像和合成图像时,大脑的电活动显示了差异。
它看起来像是他的潜意识“知道”什么时候人工智能能比意识更好地生成图像。尽管如此,参与者并不能有意识地给人工智能人脸贴上任何强大的自信标签。
我们可以推测,有一个有意识的解释层,即使我们不确定,我们也会给予人工智能生成的面孔“怀疑的好处”。
毕竟,我们天生就有能力识别和信任人脸,所以很难将自己从其中分离出来,并隔离可能揭示人工智能生成图像的不一致性。
这几乎就像是最初的怀疑让位于更肯定的确认,即这个人实际上是真实的,尽管他们不是–一种人工智能煽动的道歉形式。
无论对这一怪癖的解释是什么,人工智能生成的深度造假是这项技术的首要风险,最近新泽西州的一所学校发生了一起丑闻。
深度虚假骗局是经常发生的,人们明显担心虚假的人工智能生成的内容可能会影响投票行为。