在今天的专栏中,我将揭穿一个普遍的神话:如果我们实现了通用AI(AGI),那么由此产生的AI将是一个单独的巨人,或者被称为“一个大脑”。
目前正在进行大量研究以进一步推进人工智能的发展。总体目标是实现通用AI (AGI),甚至有可能实现超级人工智能 (ASI)。
AGI 是一种被认为与人类智力相当的人工智能,似乎可以与我们的智力相媲美。ASI 是一种超越人类智力的人工智能,在许多(若不是所有)可行方面都比人类更胜一筹。这个想法是,ASI 可以通过在每个方面超越我们而超越人类。
目前,人工智能业内人士对 AGI 或ASI 的影响的看法大致分为两大阵营。其中一个阵营是人工智能末日论者。他们预测 AGI 或 ASI 将试图消灭人类。有些人将其称为“P(doom)”,意思是末日的概率,或者AI将彻底摧毁我们,也称为人工智能的生存风险。
他们倾向于认为先进的人工智能,即 AGI 或 ASI,将解决人类的问题。治愈癌症,确实如此。解决世界饥饿,绝对如此。我们将看到巨大的经济收益,将人们从日常劳作中解放出来。AI将与人类携手合作。这种仁慈的人工智能不会篡夺人类。这种AI将是人类有史以来的最后一项发明,但这很好,因AI将发明我们从未想象过的东西。
没有人能够确切地说出哪一方是对的,哪一方是错的。这是我们这个时代的又一个两极分化现象。
为了便于讨论,我们暂时将 ASI 的成就放在一边,只关注 AGI 的潜在成就。不需要过多的担心——我将在结论部分重新讨论 ASI。
一个普遍的假设是,如果实现了 AGI,AGI将是一个庞大的 AI 系统,它将包含或封装所有其他 AI 系统。有很多科幻故事都采用了这种比喻。AI 成功成为一个无所不包的全球主宰者,人类必须与机器野兽的广泛触角展开激烈斗争。我相信你读过的书或看过的电影都描述了这种令人震惊的场景。
过去,对AI未来发展做出如此大胆的猜测还是有一定道理的,因为我们还未达到现在的地步。而我们目前在人工智能方面的现状往往表明,单一大脑理论已经失败。
现在已经很清楚,人工智能制造商正在竭尽全力,力争各自独立实现 AGI。
主要的人工智能供应商通常以最类似于知识产权 (IP) 的方式对待他们的AI产品。他们对其新兴人工智能的内部机制严加保密。他们投资AI是基于这样一种信念:最好的方法是自己动手构思。竞争很激烈。他们正在不断努力建立护城河或设置障碍,以防止竞争对手抄袭他们的独特成就。
提醒大家注意这个保密问题,人们已经很担心,如果不披露内部细节,人工智能制造商将隐藏巨大的安全问题,而这样一些问题是无人知晓的。人工智能制造商可能没有充分尽职调查,无法找出各自人工智能中的漏洞和问题。与此同时,外界没有很好的方法深入人工智能,找出这些问题。
有些人可能会立即声称人工智能的开源运动否定了这种保密性,但即使是开源的拥护者也经常忽略一些关键方面,例如他们使用哪些数据来训练他们的人工智能。
关键在于,我们正朝着 AGI 迈进,而AGI 是单独设计的,而不是通过协调集体任务来打造一个单独的巨人。如果我们沿着这条路走下去,那么想必 AI 制造商会热切地分享他们的 AI 的每个方面,以实现“一个大脑”的目标。
更可能的结果是,我们最终可能会得到大量 AGI 实例,每个实例都各不相同。它们似乎具有不一样的架构,基于不同的训练数据,并赋予不同的目标。话虽如此,关于怎么来实现 AGI 存在着一种完全相似的群体思维,因此,差异可能不会像人们想象的那么大。
它们虽然各有不同,但也有共同的考虑,即它们的设计、建造和部署方式大致相同。
有人说,即使不同的 AGI 结果是更可能的方向,也存在一种虚拟的方式能让 AGI 聚集成一个大脑。
大多数 AI 制造商都提供应用程序编程接口 (API),使他们的 AI 能够与其他系统连接。AI 制造商的 AI 可能会通过 API连接到金融系统,以帮助进行与金融应用程序及其数据相关的财务分析。连接到医疗系统、客户关系管理系统等也是如此。
同样,通过 API 将一个 AI 系统连接到另一个 AI 系统也是可行的。还有别的办法能够连接它们,所以我并不是说 API 是唯一的途径。我提到 API 总体上表明,实现 AI 到AI 的互联互通是可能的,而且很容易。
啊哈,假设一个人AI制造者发明了一种 AGI。另一个人工智能制造者也发明了 AGI。它们是截然不同的 AGI。因此,你可以声称它们不是一个大脑。但假设这两个 AGI 通过 API 或其他相关方式连接起来。根据互连,它们能很容易地相互共享信息。你可能会断言它们作为一个大脑一起工作。
一个完全同化且具有凝聚力的巨型 AGI 与一群看似作为一个实体工作的相互作用的 AGI 之间的分界线在哪里?
纯粹主义者可能会说,只有当 AGI 是一个完全紧密、不可分割的整体时,单一大脑才是合理使用。因此,交互 AGI 不能够满足要求。其他人会劝告说,最终结果才是最重要的,而不是内部机制如何运作。交互 AGI 已经足够接近单一大脑了,你应该放弃它,并承认它是单一大脑。
AGI 之间能够直接进行通信这一点乍一看似乎令人欣慰。我们大家可以甜蜜地想象每个 AGI 都在支持另一个。它们彼此和谐地工作。真好。
你可以说,每个 AGI 之间都有几率存在激烈的竞争,就像人工智能制造者之间一直存在竞争一样。如果你愿意的话,可以称其为制造者、后代或创造物。竞争模式无疑已经植根于每个 AGI 的基础中,无论是默认的还是有目的的。
底线是,尽管拥有某种 API 或连接,但并不能够确保 AGI 会选择合作。他们可能会拖延并勉强共享。每个人都可能将使用 API 视为最后的手段。只有在似乎无另外的可行选择时才共享。
假设每个 AGI 都有自己的一种思维。我们不知道情况是否如此,因为实现 AGI 可能并不是特别需要具备感知能力。暂时假设 AGI 能拥有自己的一种思维。
一个 AGI 希望被认为比其他 AGI更优秀或更优越。这个 AGI 会继续狡猾。通过 API 或任何现有的连接,狡猾的 AGI 会向其他 AGI 提供一些虚假信息,旨在混淆或让其他 AGI 看起来有缺陷。如果其他 AGI 上钩,那么阴险的 AGI 就会成为最好的,前提是没有人发现这个卑鄙的伎俩。
通过将国家边界和全球地理政治学纳入考量,能加强 AGI 好斗和狡猾的一面。假设某个国家获得了 AGI。他们将 AGI 视为国家的骄傲,以及可拿来增强全球影响力的国宝。
答案似乎是,人们倾向于脱颖而出,并坚持认为 AGI 是一种无可比拟的资源,比一个国家可能固有的自然资源更宝贵。
许多人对AI的生存风险感到忧心忡忡。人工智能可能会选择奴役人类。人工智能可能会决定灭绝人类。
让我们回到 AGI 的问题上。想象一下AGI 开始实现。我们决定通过 API 或类似方式将它们连接起来。其单纯的目的是实现集体智慧,也许会推动我们迈向超级智能的下一阶段目标。
请记住,我们规定这些 AGI 与人类智能水平相当。也许他们决定进一步合作并自我组织他们自己的“AI 社会”。这似乎是明智的。似乎合情合理。当然,这并不是我们与 AGI 建立联系的必要原因。无论如何,AGI 制定了这样的计划。
这引发了人们的担忧,即这种集体协作的 AGI 的集体思维已达到了一个临界点,他们拥有足够的能力和渠道来访问整个社会,以至于可以威胁我们的自由和生存。真是可悲。
相反,乐观主义者可能会反驳说,这个超级 AGI 集体可以追求帮助人类的目标,并永远是我们最好的朋友。幸福的脸。
我在讨论开始时就承诺最终将AI超级智能纳入讨论范围。ASI 值得被豁免的原因是,我们对 ASI 的任何看法都纯属空想。
真正的 ASI 是超出我们智力范围的东西,因为它是超级智能。第一个达到的 ASI 会决定立即压制所有其他正在酝酿的 ASI 吗?这似乎有很大的可能性。逻辑很简单。没有一个有自尊心的 ASI 希望一些竞争对手的 ASI 监视他们并可能击败他们。
再说,也许第一个 ASI 想要有ASI 朋友,因此相应地设计了额外的 ASI。
我们需要认真、积极地继续并扩大对AI与人类价值观一致的追求。我们希望设计和构建人工智能,使通用AI与人类价值观保持一致,或者我们已经做得足够多,以至于通用AI本身能够推断和模拟这些准则。
与此同时,我们一定要推翻那种认为只要我们进入 AGI 就能解决这样一些问题的鸵鸟心态。这让我想起了那句名言:如果你没有计划,你就注定会失败。如果我们认真而清醒地相信 AGI 马上就要来临,那么弄清楚这一切将怎么样发展就非常重要。
伍德罗·威尔逊曾对大脑做出过这样的名言:“我不仅利用我所有的大脑,还利用我能借用的一切。”你可能会将这一见解解读为,我们几乎能肯定,AGI 会想要相互联系。AGI 大概会利用其他 AGI。
一个令人费解的谜题是,每个 AGI 是否都如此完整,以至于连接到另一个 AGI 不会有任何好处。这在某些特定的程度上是一个定义问题。如果你将 AGI 定义为拥有所有可能的人类智能,你可能会争论说一个 AGI 与另一个 AGI 通信没有一点附加价值。似乎什么都没有得到。
解决办法是,AGI 可能基于 AGI 建立时的人类智能,因此,跟着时间的推移,AGI 将有兴趣获得新增加的智能,例如通过与其他 AGI 交互。
我最后引用的是德怀特·艾森豪威尔的这句话:“金钱和枪炮无法替代智慧和意志力。”我敢说这句话进一步证明了那些达到 AGI 水平的人所拥有的巨大优势。
我们现有的大脑是否足够大来处理 AGI,这是一个我们应该尽快解决的大脑大问题。