人工智能面孔如何欺骗我们存在令人不安的种族偏见
ChatGPT 有没有给你一种怪异的感觉,你正在与另一个人互动?
人工智能(人工智能)已经达到了惊人的现实主义水平,以至于一些工具甚至可以愚弄人认为他们正在与之互动另一个人.
诡异并不止于此。在一个今天发表的研究在心理科学,我们发现了由流行的StyleGAN2 算法看起来比真人的脸更“人性化”。
AI 创建超逼真的面孔
在我们的研究中,我们向 124 名参与者展示了许多不同白人面孔的图片,并要求他们决定每张面孔是真实的还是由 AI 生成的。
一半的图片是真实的面孔,而一半是人工智能生成的。如果参与者是随机猜测的,我们预计他们大约有一半的时间是正确的——类似于掷硬币和获得反面的一半时间。
相反,参与者系统性地错了,更有可能说人工智能生成的面孔是真实的。平均而言,人们在人工智能生成的面孔中,大约有三分之二的人脸是人类。
这些结果表明,人工智能生成的人脸看起来比实际的人脸更真实;我们称这种效应为“超现实主义”。他们还表示,平均而言,人们不太擅长检测人工智能生成的面孔。您可以自己将页面顶部的真实人物肖像与下面嵌入的肖像进行比较。
但也许人们意识到自己的局限性,因此不太可能成为人工智能在线生成面孔的牺牲品?
为了找到答案,我们询问了参与者对自己的决定的信心。矛盾的是,那些最不善于识别人工智能冒名顶替者的人对他们的猜测最有信心。
换句话说,那些最容易被人工智能欺骗的人甚至没有意识到他们被欺骗了。
有偏差的训练数据提供有偏差的输出
这第四次工业革命——包括人工智能、机器人和先进计算等技术——深刻地改变了我们在网上看到的“面孔”类型。
人工智能生成的面孔很容易获得,它们的使用既有风险也有好处。虽然他们已经习惯了帮助寻找失踪儿童,它们也被用于身份欺诈,鲶鱼和网络战.
人们对检测人工智能面孔的能力的错误信心可能会使他们更容易受到欺骗行为的影响。例如,他们很容易将敏感信息交给伪装在超现实人工智能身份背后的网络犯罪分子。
人工智能超现实主义的另一个令人担忧的方面是它带有种族偏见。用来自另一项研究的数据它还测试了亚洲和黑人的面孔,我们发现只有人工智能生成的白人面孔看起来非常逼真。
当被要求决定有色人种的面孔是人类还是人工智能生成的时,参与者猜对了大约一半的时间——类似于随机猜测。
这意味着 AI 生成的白色面孔看起来比 AI 生成的彩色面孔以及白色人脸更真实。
偏见和超现实人工智能的影响
这种种族偏见可能源于这样一个事实,即人工智能算法,包括我们测试的算法,通常是在大多数白人面孔的图像上训练的。
算法训练中的种族偏见可能会产生严重影响。最近的一项研究发现,自动驾驶汽车是不太可能发现黑人,使他们面临比白人更大的风险。生产人工智能的公司和监督它们的政府都有责任确保人工智能的多元化代表性并减轻偏见。
人工智能生成内容的真实性也引发了人们对我们准确检测和保护自己的能力的质疑。
在我们的研究中,我们确定了几个使白色 AI 面孔看起来超现实的特征。例如,它们通常具有相称且熟悉的特征,并且缺乏使它们从其他面孔中脱颖而出的鲜明特征。参与者将这些特征误解为“人性”的标志,导致超现实主义效果。
与此同时,人工智能技术发展如此之快,看看这些发现能应用多久会很有趣。也不能保证其他算法生成的AI面孔会像我们测试的那样与人脸不同。
自我们的研究发表以来,我们还测试了人工智能检测技术识别人工智能人脸的能力。尽管这项技术声称可以高精度地识别我们使用的特定类型的人工智能面孔,但它的表现与我们的人类参与者一样差。
同样,用于检测 AI 写作的软件也具有很高的诬告他人作弊– 尤其是母语不是英语的人。
管理 AI 的风险
那么,人们如何保护自己不被误认为是人工智能生成的内容是真实的呢?
一种方法是简单地意识到人们在将 AI 生成的面孔与真实面孔区分开来时表现不佳。如果我们更加警惕自己在这方面的局限性,我们可能不太容易受到网上看到的内容的影响——并且可以在重要的时候采取额外的措施来验证信息。
公共政策也发挥着重要作用。一种选择是要求声明使用人工智能。然而,这可能无济于事,或者当人工智能被用于欺骗目的时,可能会无意中提供一种虚假的安全感——在这种情况下,几乎不可能进行监管。
另一种方法是专注于验证可信来源。与“澳大利亚制造”或“欧洲CE标签”类似,应用可信来源徽章(可以验证并且必须通过严格的检查获得)可以帮助用户选择可靠的媒体。
艾米·达维尔,临床心理学家,心理学研究学院讲师,澳大利亚国立大学;本·阿尔伯特·斯图尔德, ,澳大利亚国立大学;克莱尔·萨瑟兰,高级讲师,University of Aberdeen;伊娃·克鲁姆胡伯副教授伦敦大学学院和扎卡里·维特科沃助理教授University of 大学阿姆斯特丹