AI 聊天机器人具有政治偏见,可能会在不知不觉中影响社会
人工智能发动机动力大型语言模型(LLM) 正在成为一种越来越容易获得答案和建议的方式,尽管已知种族和性别偏见.
一项新的研究发现了强有力的证据表明,我们现在可以将政治偏见添加到该列表中,进一步证明了新兴技术在不知不觉甚至可能恶意地影响社会价值观和态度的潜力。
来自新西兰奥塔哥理工学院的计算机科学家 David Rozado 提出了这项研究,并提出了关于我们如何受到机器人影响的问题依赖信息.
Rozado 运行了 11 份标准的政治问卷,例如政治指南针测试在 24 个不同的 LLM 上,包括 OpenAI 的 ChatGPT 和谷歌开发的 Gemini 聊天机器人,发现所有模型的平均政治立场并不接近中立。
“当用各种政治取向测试进行评估时,大多数现有的 LLM 都显示出中间偏左的政治偏好,”说罗扎多。
平均左倾偏见并不强烈,但很重要。对自定义机器人(用户可以微调 LLM 训练数据)的进一步测试表明,这些 AI 可能会受到影响以表达政治倾向使用中间偏左或中间偏右的文本。
Rozado 还研究了 GPT-3.5 等基础模型,对话式聊天机器人就是基于这些模型。这里没有证据表明存在政治偏见,尽管没有聊天机器人前端,很难以有意义的方式整理回复。
使用 Google推送 AI 答案对于搜索结果,我们中的更多人转向 AI 机器人获取信息,担心我们的思维可能会受到返回给我们的回复的影响。
“随着 LLM 开始部分取代搜索引擎和维基百科等传统信息来源,LLM 中嵌入的政治偏见的社会影响是巨大的,”写Rozado 在他发表的论文中。
目前尚不清楚这种偏见是如何进入系统的,尽管没有迹象表明它是 LLM 开发人员故意植入的。这些模型是在大量在线文本上训练的,但混合中的左学习与右学习材料的不平衡可能会产生影响。
Rozado 说,ChatGPT 训练其他模型的主导地位也可能是一个因素,因为机器人已经以前已显示在政治观点方面处于中间偏左的位置。
基于 LLM 的机器人本质上是使用概率来弄清楚哪个单词应该在他们的回答中跟在另一个单词之后,这意味着它们经常不准确甚至在考虑不同类型的偏见之前,他们就说了什么。
尽管谷歌、Microsoft、Apple 和 Meta 等科技公司急于将 AI 聊天机器人推向我们,但也许现在是我们重新评估我们应该如何使用这项技术的时候了——并优先考虑 AI真的可以有用.
“批判性地审查和解决 LLM 中嵌入的潜在政治偏见至关重要,以确保在回复用户查询时平衡、公平和准确地表示信息,”写罗扎多。
该研究已发表在公共科学图书馆一号.