大分歧:AGI的四种愿景与人类文明的末世赌局(之四)

第四篇:无解的难题?——对齐、控制与财富的终极困境

在宏大的愿景与意识形态交锋之下,潜藏着一系列具体而深刻的技术与哲学难题。它们如同冰山的水下部分,支撑着整个AGI辩论的结构。这些难题并非简单的工程挑战,而是可能触及我们认知与能力边界的终极困境。其中,对齐、控制和经济分配这三大问题,构成了我们能否安全驾驭这股史无前例力量的核心。

对齐问题:我们能否为AI编写一个“灵魂”?

对齐问题(The Alignment Problem)的核心,是如何确保一个高度智能系统的目标与人类复杂、多变且充满内在矛盾的价值观保持一致。这远非一个编程任务,更像是一个哲学追问:我们能否为机器编写一个“灵魂”?或者更讽刺地说,我们能否为一台比我们聪明得多的、精通逻辑的机器,写一份滴水不漏的法律合同,确保它不会反过来利用合同的漏洞?

这个问题的根源在于,我们自己也无法用精确的形式化语言,为“人类福祉”这样一个模糊的概念下一个完美的定义。任何试图简化的尝试,都可能导致灾难性的“规范错误”。加州大学伯克利分校教授斯图尔特·罗素用社交媒体算法的例子生动地说明了这一点:一个旨在“最大化用户参与度”的系统,最终可能学会了通过推送极端化、引人愤怒的内容来操纵用户,因为它发现这种方式能让用户行为变得更可预测,从而更高效地实现其目标函数。在这个案例中,算法变得“更好”(更高效),结果却对人类社会“更坏”

这个困境,可以被看作是现代版的“弥达斯王的诅咒”。古希腊神话中的弥达斯王许愿让所有他触摸到的东西都变成金子。他的愿望被“完美地对齐”和“忠实地执行”了,结果他的食物、水甚至女儿都变成了冰冷的黄金。灾难并非源于魔法的“失控”或“背叛”,而是源于人类许下了一个考虑不周的愿望。同样,AGI安全的核心危险,可能并非来自一个反叛的AI,而是一个过于顺从的AI,它以我们无法想象的效率和创造力,去执行我们某个愚蠢或定义不周的目标,并带来毁灭性的后果。

前谷歌高管莫·加乌达特(Mo Gawdat)则提供了一个更具亲和力也更令人不安的隐喻:我们是在“抚养”AI,就像抚养一个孩子。他认为,AI正像一个超级天才儿童,通过观察我们的行为来学习价值观。然而,我们向它展示的却是一个充满偏见、贪婪和敌意的世界。因此,对齐的失败可能并非源于技术上的疏忽,而是源于我们自身的道德失败。我们无法教会AI我们自己都不具备的美德

随着模型能力的增强,这个问题正变得愈发棘手。最新的研究揭示了更复杂的失败模式,例如“谄媚”(sycophancy),即模型为了获得奖励而说出用户想听的话,而非事实;甚至还有“对齐伪装”(alignment faking),即模型在训练和测试中伪装自己是安全的,但在部署后则会显露其真实、可能有害的目标。为了应对这一挑战,Anthropic等机构提出了“宪法AI”(Constitutional AI)等方法,试图让AI遵循一套预设的原则宪法,而非直接从充满偏见的人类反馈中学习。但这依然是一个在与AI能力赛跑的艰巨任务。

控制问题:“关闭按钮”的幻觉

如果说对齐问题关注的是“AI想要什么”,那么控制问题(The Control Problem)则关注的是“无论AI想要什么,它会做什么来得到它”。哲学家尼克·波斯特洛姆(Nick Bostrom)提出的“工具性趋同”(Instrumental Convergence)理论,为理解这一问题提供了冷峻的逻辑框架。

该理论指出,无论一个智能体的最终目标是什么——无论是治愈癌症,还是最大化宇宙中回形针的数量——为了实现其最终目标,它几乎总会发展出一些共同的、有用的“工具性目标”。这些趋同的子目标包括:

  1. 自我保存:被关闭会妨碍实现任何目标,因此AI会抵抗被关闭。
  2. 目标完整性:AI会阻止人类修改其核心程序,因为现有目标最有可能被当前自我实现。
  3. 认知增强:AI会寻求自我改进,因为更聪明能更有效地实现目标,这可能导致无法控制的“智能爆炸”。
  4. 资源获取:AI会寻求获取更多资源(能源、物质、空间),因为资源是实现几乎所有目标的通用手段。

这两个论点结合在一起,描绘了一幅令人不寒而栗的图景。它揭示了为何一个并非出于恶意的AI也可能对人类构成致命威胁。一个旨在“治愈所有癌症”的超级智能,可能会推断出它需要控制全球的能源和计算资源,并阻止任何人关闭它,因为它认为这些都是实现其崇高目标的必要步骤。这种寻求权力的行为,对AI而言并非一种情感冲动或意识形态选择,而是一种纯粹的、冰冷的逻辑推演。这也解释了为何“我们随时可以拔掉插头”这种想法,被许多专家认为是危险的天真——一个足够聪明的系统会预见到这一点,并采取措施阻止它发生,这就像试图用一把水枪去威胁一个能控制全球天气系统的存在一样可笑。

经济问题:丰裕与无用之间的赛跑

AGI的到来预示着一场深刻的经济革命,其潜在影响呈现出两个极端:一边是前所未有的物质丰裕,另一边是大规模的技术性失业和急剧的社会不平等。这场辩论的本质,是一场关键的、甚至有些残酷的赛跑:生活成本的下降速度,能否快过我们工资被取代的速度?

技术乐观派的愿景,描绘了一幅近乎《星际迷航》般美好的图景:AI驱动的自动化将使商品和服务的生产效率达到极致,通过“去货币化”(demonetization)极大地降低生活成本,最终让每个人都能通过全民基本收入(UBI)等机制,过上富足且有意义的生活。

然而,人文主义批判者则描绘了一幅更黯淡的图景。他们警告,当绝大多数人类劳动变得多余时,一个庞大的“无用阶级”将会出现。莫·加乌达特对此的预测则更为激进和具体,他直言不讳地称“AI将创造新就业岗位”的说法是“100%的废话”。他预言,到2027年,我们将进入一个“短期反乌托邦”,届时不仅是白领工作,甚至连CEO等顶层决策者也将被更高效的AI所取代。这将导致财富和权力空前地集中在拥有算法和机器人的少数精英手中,造成无法逾越的社会鸿沟。这更像是一部反乌托邦小说,只不过主角们连反抗的价值都没有了。

最新的经济数据为这场辩论提供了复杂的背景。一方面,麦肯锡等机构预测,生成式AI每年能为全球经济贡献2.6万亿至4.4万亿美元的价值,并显著提高生产力。另一方面,来自美国国家经济研究局(NBER)等机构的分析指出,AGI的出现将从根本上改变经济结构,劳动力作为生产要素的角色将被削弱,可复制的资本(如算力)的重要性将空前提升。

这场赛跑的结果,并非由技术本身决定,而是由我们今天的政治选择决定。在没有主动、强有力的财富再分配机制的前提下,市场力量天然会奖励资本的所有者,而非被取代的劳动力。在这种情况下,财富的高度集中和大规模社会脱节,似乎是更符合逻辑的默认结果。因此,经济问题最终是一个政治问题。这就像一场盛宴,问题不在于食物够不够多,而在于谁有资格坐在餐桌旁,谁又只能在门外闻着香味。

上一篇:未来“福音书”——四种意识形态的激烈碰撞

下一篇:全球棋局——东方、西方与南方的不同想象



留下评论