人工智能野史:一部百年思想的跌宕传奇(之三)

第三部:凛冬将至:组合爆炸的诅咒与专家系统的黄昏

黄金时代的乐观主义,如同夏日的绚烂烟火,短暂而耀眼。当AI的研究者们试图将他们在“积木世界”里学到的魔法,施展于广阔的现实世界时,他们遭遇了一个看不见却又无所不在的恶魔。这个恶魔并非逻辑上的谬误,而是一个数学上的诅咒,它让曾经所向披靡的算法陷入泥潭,最终导致了信心的崩塌和资金的枯竭——人工智能的第一次“凛冬”来临了。

围城之外:当积木变成世界

想象一下,你正在计划一次环球旅行,需要访问20个城市。确定从A城到B城的最佳路线很简单。但要找出访问所有20个城市并返回起点的最短总路线,这个问题——即著名的“旅行商问题”——的难度却会发生质变。可能的路线数量不是简单地增加,而是以阶乘的方式暴增。20个城市的路线组合,其数量已经超过了10^18,这是一个连最快的超级计算机也无法在有生之年穷尽的数字。

这就是“组合爆炸”(Combinatorial Explosion),悬在符号主义AI头顶的达摩克利斯之剑。在SHRDLU的积木世界里,物体数量有限,关系明确,可能的组合尚在可控范围之内。但现实世界,是一个开放、动态且充满无限变量的系统。一个简单的指令,如“给我拿杯水”,在现实中就包含了海量的可能性:水杯在哪里?是什么形状?满的还是空的?路上有障碍物吗?地面滑不滑?每一个变量,都会让决策树呈指数级增长。

早期的AI研究者们很快发现,他们为解决“玩具问题”而设计的精妙算法,在面对真实世界的复杂性时,会瞬间被组合爆炸的洪流所淹没。无论是机器翻译(一句话中词语的排列组合和多义性)、语音识别(声学信号的无穷变化),还是机器人导航(现实环境的不可预测性),都遇到了这道难以逾越的数学屏障。问题不在于他们的逻辑错了,而在于他们试图用有限的、预设的规则,去穷尽一个拥有无限可能性的世界。这从根本上就是一条走不通的路。他们就像是精心绘制了一张城市地图的制图师,却发现自己要探索的不是一座城市,而是一整个变幻莫测的热带雨林。

莱特希尔报告:一位爵士的“死亡判决”

到了20世纪70年代初,AI领域“过度承诺,成果寥寥”的批评声开始甚嚣尘上。资助机构的耐心正在被耗尽。在这关键时刻,英国政府委托了一位德高望重的应用数学家——詹姆斯·莱特希尔爵士,对英国的AI研究状况进行评估。莱特希尔并非AI领域的专家,但正是这种“局外人”的身份,让他得以用一种冷静甚至冷酷的眼光审视这个被神话光环笼罩的领域。

1973年,著名的《莱特希尔报告》发布。这份报告的结论,无异于一纸“死亡判决”。莱特希尔直言不讳地指出,AI在实现其“宏伟目标”(grandiose objectives)方面,遭遇了彻底的失败。他精准地抓住了要害——“组合爆炸”问题。他认为,这并非一个可以通过增加计算能力就能解决的工程问题,而是一个根本性的理论障碍,导致AI的算法只能在“玩具”世界里打转,无法扩展到解决真实世界的问题。

报告将AI研究分为三类:A类(自动化,如字符识别)、B类(搭建桥梁,即模拟人类认知过程的核心AI研究)和C类(计算机模拟,如神经科学研究)。他肯定了A类和C类的价值,但对核心的B类研究,尤其是通用机器人和语言处理,给予了毁灭性的批评,称其进展“令人非常失望”。

这份报告在英国学术界和政府中引发了地震。它为那些早已对AI持怀疑态度的人提供了最权威的“弹药”。其直接后果是,英国科学研究委员会大幅削减了对AI研究的资助,导致英国的AI研究几乎被“完全 dismantling”(拆除)。这场寒流迅速跨过大西洋,影响了美国的资助方。美国国防高级研究计划署(DARPA),这个曾经是AI研究最慷慨的“金主”,也因其资助的语音理解研究等项目迟迟达不到预期目标而感到失望,开始大规模削减对高校AI基础研究的投入。

AI研究者们一夜之间从时代的宠儿变成了学术界的边缘人。曾经的乐观主义烟消云散,取而代之的是资金断流、项目下马和无尽的自我怀疑。人工智能的第一个“凛冬”,就这样在组合爆炸的诅咒和一份报告的催化下,凛冽而至。

最后的火焰:专家系统的崛起与覆灭

在长达近十年的寒冬之后,一丝暖意在80年代初悄然回归。AI领域从构建通用智能的宏大梦想中清醒过来,转向了一个更为务实的目标:如果无法创造一个“全才”,那么能否打造一个“专才”?这种思路催生了“专家系统”(Expert Systems)的浪潮。

其核心理念是“知识即智能”。研究者们不再试图模拟人类的通用推理能力,而是专注于将某一特定领域的人类专家的知识,编码成一个庞大的规则库。这些系统就像一位不知疲倦、记忆力超群的领域专家。

其中的明星项目包括斯坦福大学开发的MYCIN系统,它能够根据病人的症状和化验结果,诊断血液感染疾病,其准确率甚至超过了一些人类医生。另一个巨大的商业成功是DEC公司开发的XCON系统,它能根据客户的需求,自动为复杂的VAX计算机系统提供正确的组件配置,在几年内为DEC节省了数千万美元的成本。

专家系统的成功,一度让AI领域重拾信心,也引发了第二波商业热潮。人们似乎找到了AI的“正确打开方式”:用大量的“知识”来规避“组合爆炸”的难题。然而,这短暂的春天,不过是另一场虚幻的泡影。

专家系统的致命弱点很快暴露出来:它们虽然知识渊博,但极其“脆弱”(brittle)。它们的知识库,就像一个由无数手工雕刻的齿轮组成的精密钟表。维护和更新这个庞大的规则库,是一项成本高昂且极其繁琐的工作。更糟糕的是,当专家系统遇到任何一个超出其规则库范围的新情况时,它不会像人类专家那样进行常识性推断,而是会彻底失灵,或者给出一个荒谬的答案。它们缺乏最基本的“资格问题”(qualification problem)处理能力——即理解规则在何时不再适用。

随着问题变得越来越复杂,维护这些“知识钟表”的成本变得不可持续。到了80年代末,人们发现专家系统所能应用的场景非常有限,最初的商业狂热迅速冷却。DARPA再次削减了对AI的战略投资,市场泡沫破裂,AI领域迎来了第二次,也是更长的一次寒冬。专家系统的黄昏,标志着纯粹符号主义AI时代的终结。它证明了,仅仅堆砌知识和规则,是无法通往真正智能的。智能,需要的或许不只是“知道什么”,更是“如何应对未知”。

上一篇:达特茅斯的夏日:巨人们的黄金时代与“积-木世界”的围城

下一篇:肉身之叛:“大象”登场,颠覆棋局



留下评论