【本系列博文读者对象:对AI感兴趣的哲学社会人文学科的研究人员、相关学科研究生、文科科研管理人员】
第九章:哲学家的学徒:LLM能否辅助批判性思维与论证分析?
回答问题:AI在哲学研究中如何辅助论证分析与批判性思维?
在哲学这一以严谨思辨为核心的古老学科中,大语言模型的角色显得既微妙又复杂。一方面,当前的LLMs自身往往是“糟糕的哲学家”;另一方面,它们的种种缺陷,如果被善加利用,却能成为训练批判性思维和进行大规模论证分析的绝佳工具。LLMs在哲学领域的应用,正呈现出一种作为“有瑕疵的学徒”和“高效的分析器”的双重面貌。
首先,LLMs的哲学“短板”恰恰构成了其独特的教学价值。研究发现,现有的LLMs在进行哲学探讨时,常常会犯下基本的逻辑错误,无法维持一贯的立场,其论述也容易流于表面化的“漫画式”表达 25。对于需要深度思考的复杂问题,它们因缺乏真正的“自我”(selfhood,即稳定的信念系统)和“主动性”(initiative,即好奇心和探索欲)而显得力不从心。然而,这些缺点在哲学课堂上却能转化为优点。一位哲学教授设计的课程,就巧妙地利用了这一点:他让学生们去批判ChatGPT生成的哲学论文。学生们起初可能会被其流畅的文笔所迷惑,但在仔细的文本分析中,他们会发现段落之间缺乏逻辑关联,核心论点在不知不觉中被偷换。通过这个过程,学生们深刻地学会了区分“看似优秀”的表达与“真正深刻”的思考 25。同样,与一个立场飘忽、善于回避核心问题的LLM进行辩论,能够极好地训练学生“穷追不舍”(relentlessness)的哲学品格——一种紧紧咬住问题核心、不被花言巧语所迷惑的思辨能力。
其次,在计算层面,LLMs为哲学分析提供了前所未有的规模化工具。传统上,哲学家对概念和论证的分析依赖于对少量经典文本的精读。而现在,LLMs使得对整个哲学语料库进行系统性分析成为可能。
- 论证模式分析:一个新兴的研究方向是“论证模式分类”(argument scheme classification),即利用LLMs自动识别自然语言文本中存在的典型论证形式,如“后果论证”(Argument from Consequences)或“榜样论证”(Argument from Example)。这不仅能帮助我们理解特定哲学家或学派的推理偏好,还能辅助识别逻辑谬误。
- 概念演化追踪:对于科学哲学等领域,LLM可以被用来大规模地追踪一个核心概念(如“客观性”)在数个世纪的科学文献中的语义变迁和用法演变。
- 模拟哲学家:更有趣的尝试是,研究者通过在特定哲学家的全部著作上“微调”(fine-tune)一个LLM,来创造一个该哲学家的“数字替身”。一项针对丹尼尔·丹尼特(Daniel Dennett)的研究成功地生成了连专家都难以分辨真伪的文本段落,这为探索一个思想家的“思想空间”提供了全新的可能性。
这些应用的兴起,或许预示着分析哲学在经历了“语言转向”后,正迎来一次“计算转向”。它并非要用算法取代哲学思辨,而是为哲学思辨提供一种全新的、大规模的经验证据。过去,关于语言、逻辑和论证的哲学主张,主要依赖于直觉和少量范例。未来,哲学家或许可以提出这样的论断:“在19世纪德国唯心主义文本中,‘诉诸权威’的论证模式比在20世纪逻辑实证主义文本中出现的频率高出35%”,并用坚实的数据来支撑它。这将使哲学研究从纯粹的“摇椅思辨”,演变为一种思辨与数据科学相结合的混合研究范式。

留下评论