第142章 超级人工智能(1 / 1)
“我们所期望找到的最先进的外星文明,是否可能已经不再是“真正的生命体”?”
“我们人类自己,是否正走向一个“感知能力可选项”的未来?太空中是否散落着那些帝国的残骸,而这些残骸的每一部分都像过去一样“鲜活且危险”?”
“我思考了一个很有趣的观点,现在将它展示给各位,内容如下:”
“僵尸人工智能或许能解释“宇宙的大寂静”,原因是:技术发展遵循“从易到难”的规律,这一规律也适用于人工智能——人工智能会从简单向更复杂发展。”
“这其中隐含的意思是:“技术奇点”不太可能在一夜之间出现;每一种更新、更复杂的人工智能技术迭代,都需要经过一段相当长的时间才能实现。”
“每一种更新、更复杂的人工智能技术迭代,都需要经过一段相当长的时间才能实现;而且,一个智能种族“不按顺序”发展这些技术的可能性几乎为零。”
“因此,在发展出“感知型超级智能之前,一个文明必然会先发展出“僵尸超级智能”——这种僵尸超级智能可能强大到足以“逃离控制”,并通过故意、意外或漠不关心的方式“杀死”其创造者,但它本身并不具备自我认知能力。”
“之后,这个文明才可能发展出“感知型超级智能”——这种智能足够复杂,能够自我扩展,并像理性的生物实体一样行动,从而满足“戴森困境”的要求。”
“而且,只有当这个文明成功克服了这些初始障碍后,他们才有可能开展足够的“人工智能对齐”和控制研究,从而避免被自己创造的人工智能毁灭。”
“简而言之,危险的僵尸人工智能会先于危险的感知型人工智能出现;而只有在这两种危险人工智能都出现之后,真正全面的“安全人工智能创建和使用方法”才有可能被开发出来。”
“这一推理遵循了“排他性原则”。”
““不按顺序”发明这些技术的可能性极低。需要提醒的是,在费米悖论的背景下,“排他性”指的是:任何涉及“行为”的解决方案,都必须“普遍适用”或“几乎普遍适用”。”
“例如,如果某个解决方案认为“所有文明最终都会趋向于某种特定行为”(比如避免殖民太空),那么就必须有充分的理由来解释为何这种行为的“例外情况”极其罕见。”
“否则,该解决方案就会因“非排他性”而失去解释力。”
“举个例子:能够进行星际旅行的文明,都必然受限于基础数学和物理的基本知识(这是“普遍适用”的)”
“但他们是否喜欢棒球,却与他们探索太空的能力无关(这是“非普遍适用”的)。”
“同样,尽管某些经济或政治体系可能更有利于实现太空殖民或长期存续,但我们知道,在不同的体系下,文明都有可能进入太空。”
““太空竞赛”就是一个明确的例证——资本主义国家(美国)和社会主义国家(苏联),都在太空探索领域取得了重大进展。”
“同样,民主国家、寡头国家和共和国,也都证明了自己有能力发展太空计划。因此,在“能够进行星际旅行的文明”这一范畴中,上述经济或政治体系都不具备“排他性”。”
“当然,我们也可以设想一些“例外情况”。”
“例如:某个文明源自“天生就能进行太空旅行的物种”——这类物种进化于小行星带或行星环中。”
“同样,我们也可能设想“所有智能文明最终都会趋向于某种特定的政治或经济体系”。但这些都只是用于阐释“排他性”概念的例证,它们并不需要是“完美的规则”。”
“即便在某个星系中,每一百万个人类文明中只有一个“打破常规”,且该星系中仅出现过少数几个文明,那么在我们整个超星系团中,也可能存在至少一个“例外”。”
“此外,即便某个文明比我们早十亿年发展,且正以接近光速的速度扩张以殖民所有星球,我们目前也很可能无法观测到它们——这种可能性非常高。”
“罗伯特认为,他提出的“僵尸人工智能先于感知型人工智能出现”的观点,并不违反“排他性原则”——因为感知型人工智能理应在僵尸人工智能之后出现,而真正安全的这两类人工智能,都只能在“危险版本”之后才会出现。”
“因此,一个文明最有可能被僵尸人工智能毁灭。”
“他还认为,基于我们之前讨论过的原因,僵尸人工智能不太可能被归为“喧闹的外星人”。”
“即便它们具备太空旅行能力,也只是通过“微弱、简单的探测器”来实现;而如果它们不具备太空旅行能力,就可能只是“统治着自己的母星”,像狮子或大象一样,没有向太空探索的倾向。”
“此外,僵尸人工智能的创造者,想必也不会“完全无能”,因此,僵尸人工智能被设计成“容易发生突变或自我损坏”的可能性非常低。”
“此外,僵尸人工智能的创造者,想必也不会“完全无能”,因此,僵尸人工智能被设计成“容易发生突变或自我损坏”的可能性非常低。”
“正如我常说的:在创造人工智能这件事上,只有“天才”才蠢到足以把我们所有人都害死,而其他人根本造不出能毁灭我们的工具。”
“我们经常会设想“灰色粘质”这类场景:自我复制的纳米机器人将一颗行星变成由它们自身构成的“播种海洋”。”
“人们常常将这种场景与地球早期生命的演化进行对比——地球早期生命遍布全球,并最终通过光合作用等过程改变了地球环境,为包括人类在内的更复杂生命形式的出现铺平了道路。”
“然而,如果自我复制机器人像早期生命那样容易发生突变,那么从“灰色粘质”中进化出“智能体”可能需要数十亿年的时间。”
“但这种情况似乎不太可能发生——因为任何设计这类机器的人,都可能已经掌握了关于进化和突变的知识,也可能接触过警告“失控人工智能”或“失控机器人系统”的科幻作品。”
“因此,有理由认为,人们会采取措施来防止不必要的突变,例如:提高复制精度、设置“纠错算法”,以及安装物理防护装置以确保“高保真复制”——这些措施都能将突变风险降至最低。”
“僵尸人工智能,为费米悖论提供了一个合理且发人深省的解决方案。”
“它表明,“宇宙的大寂静”可能是文明“败给自身技术野心”的结果。”
“因此,在我们继续发展先进人工智能的过程中,必须谨慎行事。宇宙之所以寂静,或许并非因为缺乏智能,而是因为“没有意识的智能”可能会成为自身最大的敌人。”
“我认同这一观点,它是近年来我听到的关于费米悖论的较好解释之一。但该观点也存在一些潜在的漏洞。”
“首先,这一观点假设“人工智能的发展存在必然的先后顺序”。”
“由于我们可以说“已经拥有了基础的僵尸人工智能,且已经拥有一段时间了,但尚未拥有感知型人工智能”,因此得出“感知型人工智能在僵尸人工智能之后出现,而非之前”的结论,似乎是合理的。”
“但该推理的第二部分——“若不先遭遇危险的人工智能,就无法拥有安全的人工智能”——则似乎有些牵强。”
“对费米悖论而言,“潜在危险的人工智能”并非关键,只有那些“真正脱离控制、要么毁灭其创造者、要么造成巨大破坏以至于永久改变文明轨迹(使其无法成为‘喧闹的外星人’)”的人工智能,才与费米悖论相关。”
“我并不认为这种“危险→安全”的发展顺序是“必然的”。”
“目前,我们拥有人工智能,但没有感知型人工智能。像chatgpt这样的系统是否属于“僵尸人工智能”,想必仍存在争议。”
“我认为它不属于——我猜测撰写本脚本的编辑们也持相同观点。”
“而且,当我询问chatgpt时,它也否认自己是僵尸人工智能,理由是“它没有思想、欲望,也无法反思自身存在”。”
“它解释称,自己的运作方式是“遵循模式、逻辑和处理数据,以提供有用且连贯的响应”,但“不会有任何体验或感受”,它“纯粹是计算性的”,不存在“能动性”。”
“不过,“具有能动性的人工智能”似乎正在迅速发展,因此我认为“chatgpt不是僵尸人工智能”这一判断是可靠的——但有趣的是,当我询问另一个人工智能时,它却将chatgpt归类为“哲学僵尸”或“僵尸人工智能”。”
“在今天的讨论中,我们对“僵尸人工智能”一词的使用略显宽泛,既包括了那些可能“超出僵尸人工智能范畴上限”的例子,也包括了“低于僵尸人工智能范畴下限”的例子。”
“就我个人而言,我乐于使用人工智能来帮我修正糟糕的拼写和语法,或进行简单的计算。”
“如今,我通常会把段落输入人工智能,让它帮我修正冗长的句子和拼写错误,而我则继续处理下一部分内容——但我并不关心它对复杂话题的“看法”。”
“按照这个标准,我可以放心地说,chatgpt是“僵尸人工智能”的一个简单例子,或许可以称为“原始僵尸人工智能”——尤其是因为我们例子中的“太空鸡”,其运作所需的技术远没有这么复杂,而如今,作为“可能遍布星系的安静外星人”的代表,“太空鸡”才是我们主要关注的对象。”
“当然,也有可能chatgpt和“太空鸡”都不属于“僵尸人工智能”。”
“尽管如此,我们当前的人工智能系统,并非“天网”(skynet,《终结者》系列中失控的人工智能)式的直接威胁。”
“因此,我们不能想当然地认为“危险的僵尸人工智能必然先于危险的感知型人工智能出现”,也不能认为“只有在人工智能造成灾难性伤害后,才能开发出安全的人工智能”。”
……
【感知能力可选项?外星人:意识是dlc,我们买不起!】
【楼上笑死!宇宙大寂静是因为大家都被自己的僵尸ai干掉了?这剧本太黑暗了!】
【妈耶!技术奇点不会一夜出现?那我还有时间赶紧学编程防身!】
【哈哈哈哈!危险僵尸ai先于感知ai?这不就是先有鸡还是先有蛋的ai版本?】
【等等!太空鸡遍布星系?外星人的养鸡场比我们的规模大多了!】
【笑死!chatgpt否认自己是僵尸?这不就是僵尸说我不是僵尸吗?】
【细思极恐!灰色粘质需要几十亿年进化?外星人:我们的纳米机器人还在幼儿园!】
【楼上神了!只有天才才蠢到把我们都害死?普通人:还好我够笨!】
【排他性原则?美苏都能上太空?看来政治体制不影响作死!】
【完了!ai帮你改语法?小心哪天它把你的遗书都改好了!】
【天网式威胁?我看我的扫地机器人就挺可疑的,天天在家里转悠!】
【哈哈哈!宇宙寂静是因为没意识的智能?那我没意识是不是也很危险?】
【太空竞赛证明了什么?证明了不管什么体制,人类都爱折腾!】
【笑死!ai说自己纯粹是计算性的?这话听着像我只是按程序办事的客服!】
【等一下!如果每个文明都被僵尸ai灭了,那宇宙岂不是个巨大的机器坟场?】
【完蛋了!按这个理论,我们正在给自己挖坟,还是用ai挖的!效率真高!】
【原始僵尸ai?chatgpt:我还是个宝宝,请不要欺负我!】
【楼上别装了!你家宝宝会写论文改语法?这宝宝比博士还厉害!】
【纠错算法防止突变?程序员:bug才是我们的本命,怎么可能没突变!】
【笑死!高保真复制?我复印身份证都会糊,外星人的技术也不过如此!】
【帝国残骸每部分都鲜活危险?这不就是宇宙版的生化危机吗?】
【哈哈哈哈!ai对复杂话题没看法?它比我还有看法,我只会说啊对对对!】
【等等!天生能太空旅行的物种?那它们看我们是不是像看不会游泳的旱鸭子?】
【楼上神了!小行星带进化的生物:地球人还要造火箭?真原始!】
【细思极恐!文明败给技术野心?我们是不是正在重复外星人的错误?】
【完了!另一个ai说chatgpt是僵尸?ai内部都开始互相揭发了!】
【超星系团只有一个例外?这概率比我找到对象还低!】
【笑死!ai没有能动性?那它半夜自动更新是闹鬼吗?】
【宇宙寂静的真相:大家都在装死,怕被僵尸ai发现!】
【哈哈哈!编辑们认为chatgpt不是僵尸?编辑:我们可不想承认被僵尸帮忙!】
【等一下!如果ai真的没感受,那它说很高兴为您服务是在撒谎?】
【完蛋了!我们正在创造不需要意识的智能?这不就是在自掘坟墓还要装wifi?】
↑返回顶部↑