人工智能可以解释为什么我们没有遇到任何外星人,Wild Study提出
人工智能正在以成千上万种不同的方式感受到它的存在。它帮助科学家理解大量数据;它有助于检测金融欺诈;它驾驶着我们的汽车;它为我们提供音乐建议;它的聊天机器人让我们发疯。而这才刚刚开始。
我们是否能够理解人工智能将继续发展的速度?如果答案是否定的,那是否构成了大过滤器?
这费米悖论是先进文明存在的明显高可能性与完全缺乏它们确实存在的证据之间的差异。对于为什么存在这种差异,已经提出了许多解决方案。其中一个想法是”伟大的过滤器.'
大过滤器是一种假设的事件或情况,它阻止智能生命成为星际和星际,甚至导致其消亡。想气候变化,核战争,小行星罢工、超新星爆炸、瘟疫或盗贼灾难性事件画廊中的任何其他事物。
或者人工智能的快速发展呢?
一篇新论文宇航学报探讨了人工智能成为人工超级智能 (ASI) 以及 ASI 是大过滤器的想法。这篇论文的标题是”人工智能是使先进技术文明在宇宙中变得罕见的大过滤器吗?“ 作者是曼彻斯特大学物理与天文学系的迈克尔·加勒特。
一些人认为大过滤器阻止了像我们这样的技术物种成为多行星。这很糟糕,因为一个物种只有一个家,面临更大的灭绝或停滞风险。根据加勒特的说法,一个物种在没有备用行星的情况下与时间赛跑。
“有人提出,在这些文明能够发展出稳定的多行星存在之前,就出现了这样的过滤器,这表明技术文明的典型寿命(L)不到200年,”加勒特写道。
如果属实,这可以解释为什么我们没有检测到技术特征或其他ETI(外星智能)的证据。关于我们自己的技术轨迹,这告诉我们什么?如果我们面临 200 年的限制,如果是因为 ASI,那我们该何去何从?
加勒特强调“......迫切需要迅速建立地球上人工智能发展的监管框架,并推动多行星社会的发展,以减轻这种生存威胁。
许多科学家和其他思想家说,我们正处于巨大变革的风口浪尖。人工智能才刚刚开始改变我们做事的方式;大部分转型都是在幕后进行的。人工智能似乎准备消除数百万人的工作岗位,当与机器人技术相结合时,这种转变似乎几乎是无限的。这是一个相当明显的问题。
但还有更深层次、更系统性的担忧。谁编写算法?人工智能会以某种方式歧视吗?几乎可以肯定。相互竞争的算法会破坏强大的民主社会吗?开放社会会保持开放吗?ASI是否会开始为我们做决定,如果这样做,谁来负责?
这是一棵不断扩展的分支问题树,没有明确的终点。
斯蒂芬·霍金(RIP)有句名言,如果人工智能开始独立进化,它可能会终结人类。
“我担心人工智能可能会完全取代人类。如果人们设计计算机病毒,有人会设计出可以自我改进和复制的人工智能。这将是一种超越人类的新生命形式,“他告诉有线杂志在这一年里 2017.一旦人工智能能够胜过人类,它就会成为 ASI。
霍金可能是发出有关人工智能警告的最知名的声音之一,但他远非唯一的一个。媒体上充斥着讨论和警告,以及关于人工智能为我们所做的工作的文章。最令人震惊的警告说,ASI可能会流氓。有些人认为这是科幻小说,但加勒特不是。
“对人工超级智能(ASI)最终走向流氓的担忧被认为是一个主要问题 - 在未来几年内与这种可能性作斗争是该领域领导者日益增长的研究追求,”加勒特写道。
如果人工智能没有提供任何好处,那么这个问题就会容易得多。但它提供了各种好处,从改进的医学成像和诊断到更安全的交通系统。政府的诀窍是让利益蓬勃发展,同时限制损害。
“在国家安全和国防等领域尤其如此,在这些领域,负责任和道德的发展应该是最重要的,”加勒特写道。
问题是我们和我们的政府没有做好准备。从来没有像人工智能这样的东西,无论我们如何尝试将其概念化并理解其轨迹,我们都会感到匮乏。
如果我们处于这个位置,那么开发人工智能的任何其他生物物种也会处于这个位置。人工智能和ASI的出现可能是普遍的,使其成为大过滤器的候选者。
这就是ASI带来的风险:它可能不再需要创造它的生物生命。
“在到达技术奇点,ASI系统将迅速超越生物智能,并以完全超过传统监督机制的速度发展,导致不可预见和意想不到的后果,这些后果不太可能与生物学利益或伦理保持一致,“Garrett解释说。
ASI如何才能摆脱束缚它的讨厌的生物生命?它可以设计一个致命的病毒,它可以抑制农业粮食的生产和分配,它可以迫使核电站熔毁,它可能引发战争。
我们真的不知道,因为这都是未知的领域。几百年前,制图师会在世界上未开发的地区画怪物,这就是我们现在正在做的事情。
如果这一切听起来令人沮丧且不可避免,加勒特说事实并非如此。
到目前为止,他的分析是基于ASI和人类占据同一空间的。但是,如果我们能够获得多行星的地位,前景就会改变。
“例如,一个多行星生物物种可以利用不同星球上的独立经验,使它们的生存策略多样化,并可能避免行星文明面临的单点失败,”加勒特写道。
如果我们能够将风险分散到围绕多颗恒星的多个行星上,我们就可以缓冲自己免受ASI最坏结果的影响。
他写道:“这种分布式的存在模式通过创造冗余,提高了生物文明对人工智能引发的灾难的抵御能力。
如果未来人类占据的行星或前哨之一未能在ASI技术奇点中幸存下来,其他行星或前哨站可能会幸存下来。他们会从中吸取教训。
多行星状态甚至可能不仅仅是在ASI中幸存下来。它可以帮助我们掌握它。Garrett设想了这样一种情况,即我们可以在控制AI的同时更彻底地进行实验。想象一下,在一个孤立的小行星或矮行星上,人工智能听命于我们,却无法获得逃离监狱所需的资源。
“它允许在孤立的环境中研究先进人工智能的影响,而不会有全球毁灭的直接风险,”加勒特写道。
但这里有一个难题。人工智能的发展正在加速进行,而我们成为多行星的尝试却没有。
“人工智能的快速发展与空间技术的缓慢进步之间的差距是显而易见的,”加勒特写道。
不同之处在于,人工智能是计算和信息的,但太空旅行包含多个我们还不知道如何克服的物理障碍。我们自己的生物本性限制了太空旅行,但没有这样的障碍限制人工智能。
“虽然人工智能理论上几乎可以在没有物理限制的情况下提高自己的能力,”加勒特写道,“但太空旅行必须应对能源限制、材料科学边界和太空环境的严酷现实。
目前,人工智能在我们设定的约束范围内运行。但情况可能并非总是如此。我们不知道人工智能何时会成为ASI,或者即使它可以。但我们不能忽视这种可能性。这导致了两个相互交织的结论。
如果加勒特是正确的,那么人类必须更加勤奋地进行太空旅行。这似乎很牵强,但知识渊博的人知道这是真的:地球不会永远适合居住。如果我们不向太空扩张,人类将在这里死于我们自己的手或大自然的手。加勒特的 200 年估计只是给它打了一个感叹号。一个重新强调在达到月亮和火星提供了一些希望。
第二个结论涉及立法和管理人工智能,在一个精神病患者可以控制整个国家并一心要发动战争的世界中,这是一项艰巨的任务。
“虽然行业利益相关者、政策制定者、个别专家和他们的政府已经警告说,监管是必要的,但建立一个全球可接受的监管框架将具有挑战性,”加勒特写道。
挑战几乎无法形容它。人类的自相残杀使这一切变得更加难以控制。此外,无论我们制定指南的速度有多快,ASI 的变化都可能更快。
“如果没有实际的监管,我们完全有理由相信,人工智能不仅会对我们的技术文明,而且会对所有技术文明的未来进程构成重大威胁,”加勒特写道。
如果我们这样做了,它可能会归结为看似无聊和日常工作的事情:关于立法的争吵。
“宇宙中智能和有意识生命的持久性可能取决于这种国际监管措施和技术努力的及时和有效实施,”加勒特写道。