研究发现,人工智能实际上并不对人类构成生存威胁

科幻小说中充斥着人工智能变得流氓并转向他们的人类创造者。HAL-9000型。矩阵。天网。GLaDOS的。赛昂人。人类似乎对机器的反叛有着深深的恐惧。

随着越来越复杂的大型语言模型 (LLM) 的兴起,例如 Chat GPT,以下问题人工智能可能带来哪些危险变得更有针对性.

现在,我们有一些好消息。根据德国达姆施塔特工业大学的计算机科学家Iryna Gurevych和英国巴斯大学的Harish Tayyar Madabushi领导的一项新研究,这些模型无法流氓。

事实上,他们的编程限制太强了,没有指导就无法获得新技能,因此仍然在人类的控制之下。

这意味着,尽管我们仍然有可能将这些模型用于恶意目的,但就其本身而言,LLM 可以安全地开发而不必担心。

“人们担心的是,随着模型越来越大,它们将能够解决我们目前无法预测的新问题,这构成了这些大型模型可能获得包括推理和计划在内的危险能力的威胁。Tayyar Madabushi 说.

“我们的研究表明,担心一个模型会消失并做一些完全出乎意料的、创新的和有潜在危险的事情是站不住脚的。

在过去的几年里,LLM 的复杂性已经发展到了惊人的程度。他们现在能够通过文本进行相对连贯的对话,以一种自然和人性化的方式。

他们并不完美——因为他们实际上不是一种智力形式,他们缺乏关键技能需要从坏信息中解析好信息在许多情况下.但他们仍然可以以令人信服的方式传达不良信息。

最近,一些研究人员已经调查了可能性什么被称为紧急能力由 LLM 独立开发,而不是在其编程中故意编码。一个特别的例子是法学硕士,它是能够回答问题关于社交场合,而没有接受过关于这些情况的明确培训。

观察结果是,随着LLM的规模扩大,它们会变得更加强大,并且可以执行更多的任务。目前尚不清楚这种规模是否也意味着我们可能没有准备好应对的行为风险。因此,研究人员进行了一项调查,以查看此类实例是否真的紧急出现,或者该程序只是在其代码范围内以复杂的方式运行。

他们试验了四种不同的LLM模型,为它们分配了具有以前被确定为紧急.他们没有发现任何证据表明差异化思维的发展,也没有发现任何模型能够在他们的编程之外发挥作用。

对于所有四个模型,遵循指示、记忆和语言熟练程度的能力能够解释 LLM 表现出的所有能力。没有离开滑雪道。我们没有什么可害怕的,LLMs本身。

另一方面,人们,不太值得信赖.我们自己对人工智能的爆炸性使用,需要更多的能量并挑战从版权到信任,再到如何避免自己的一切数字污染,这正在成为一个真正的问题。

“我们的研究结果并不意味着人工智能根本不构成威胁,”古列维奇 说.

“相反,我们表明,与特定威胁相关的复杂思维技能的出现并没有得到证据的支持,而且我们毕竟可以很好地控制LLM的学习过程。因此,未来的研究应该关注这些模型带来的其他风险,例如它们可能被用来产生假新闻。

该研究已作为会议记录的一部分发表第62届计算语言学协会年会.

宝宝起名

本站所有相关知识仅供大家参考、学习之用,部分来源于互联网,其版权均归原作者及网站所有,如无意侵犯您的权利,请与小编联系,我们将会在第一时间核实并给予反馈。
相关期刊推荐
湖北农机化

湖北农机化

农业基础科学 - 省级期刊

山西化工

山西化工

一般化学工业 - 省级期刊

数字化用户

数字化用户

合作期刊 - 省级期刊

湖北畜牧兽医

湖北畜牧兽医

合作期刊 - 省级期刊

消防界

消防界

合作期刊 - 省级期刊

法制与社会

法制与社会

合作期刊 - 省级期刊

数码世界

数码世界

合作期刊 - 省级期刊

新媒体研究

新媒体研究

合作期刊 - 国家级期刊

现代制造技术与装备

现代制造技术与装备

合作期刊 - 省级期刊

中国食品

中国食品

一般服务业 - 国家级期刊

现代信息科技

现代信息科技

信息科技 - 省级期刊