【本系列博文读者对象:对AI感兴趣的哲学社会人文学科的研究人员、相关学科研究生、文科科研管理人员】
第四章:机器中的幽灵:LLM时代的知识、理解与意识哲学
回答问题:AI对知识、理解与意识等核心哲学概念提出了何种挑战?
大语言模型的横空出世,如同一面被突然置于哲学殿堂中央的棱镜,将那些关于知识、理解与意识的古老问题,以一种前所未有的尖锐和具体的方式折射出来,迫使我们重新审视人类心智的本质。这些模型究竟是只会模仿人类语言模式的“随机鹦鹉”(stochastic parrots),还是已经展现出“通用人工智能火花”(sparks of general intelligence)的雏形?这场争论已迅速从计算机科学领域蔓延至哲学、认知科学和更广泛的公众讨论中。
首先,LLMs对传统的知识论(epistemology)构成了直接挑战。哲学家通常将知识定义为“被证成的真实信念”(justified true belief)。然而,LLMs的“知识”从何而来?它们既没有亲身体验世界,也没有真正的信念系统。一个核心的区分在于,人类是卓越的“语义引擎”(semantic engines),我们通过赋予世界意义和内涵来理解现实;而LLM则是卓越的“语法引擎”(syntactic engines),它们通过预测文本中下一个词元的概率来运作,其内部处理的是庞大的数据和参数,却对所处理内容本身并无“意识”或“理解”。有学者认为,LLMs并非在指涉我们所处的“真实世界”,而是在其内部构建了一个独立的“表征世界”(representational world within)。这意味着,当LLM说“地球是圆的”,它并非在表达一个它所相信的事实,而是在重现其训练数据中一个高概率的语言模式。
其次,关于“理解”的辩论也被重新点燃。约翰·塞尔(John Searle)著名的“中文房间”思想实验曾有力地论证,仅靠操作符号的计算机程序无法获得真正的理解。然而,现代神经网络的非符号化、分布式表征方式,可能使得这一经典论证不再完全适用。尽管如此,当代哲学家在与LLMs的互动中发现,它们普遍缺乏构成深刻思考能力的两个关键要素:“自我”(selfhood)——即稳定的记忆、信念和立场体系,以及“主动性”(initiative)——即好奇心、探索欲和主动提出问题的能力。这使得它们在作为批判性思维伙伴时表现不佳,容易在被追问时立场摇摆,甚至生成看似华丽实则空洞的“废话”(bullshit)。
最后,LLMs的惊人表现甚至让我们不得不直面“意识”(consciousness)这一终极哲学难题。随着模型能力的飞速发展,一些研究者开始讨论其是否可能涌现出类似人类意识的属性,从而模糊了生物智能与人工智能的界限。这引发了关于“技术意识”(techno-consciousness)和“人造感受质”(artificial qualia)的思辨——即机器能否拥有主观的、体验性的感受。尽管目前绝大多数科学家和哲学家对此持否定态度,但LLMs的复杂行为本身,已成为探索意识本质的一个全新且极具挑战性的案例。
归根结底,LLMs在哲学领域扮演了一个独特的“倒逼机制”(forcing function)角色。它并非为我们提供了答案,而是迫使我们用前所未有的精确性和操作性去重新定义那些我们习以为常的概念。当我们追问“GPT-4真的‘理解’吗?”时,我们实际上是在追问自己:“‘理解’究竟意味着什么?”。在这个过程中,LLMs的每一次成功和失败,都成为了深化我们对自身心智理解的宝贵线索。这台机器中或许没有真正的“幽灵”,但它无疑是我们探寻自身幽灵所在的一面不可或缺的新镜子。

留下评论