Anthropic联合创始人兼首席科学家Jared Kaplan是Anthropic所有Claude大模型背后的主导者和设计者,一个曾经低调但最近频繁出现于媒体的真正的AI大牛。在最近的多次访谈中谈人工智能(AI)未来发展的一系列语出惊人同时发人深省的观点。以下是对其主要观点的概括总结。
AGI时间线:比预期更近,或在2027年左右
- AGI可能比2030年更早到来:Kaplan坦诚地表示,根据当前AI的发展速度,他认为通用人工智能(AGI),即在广泛智力任务上与人类最佳水平相当甚至超越的AI系统,很可能在未来的两到三年内(即2027年左右)实现。这个预测比许多其他专家的估计更为激进。
- AGI并非明确的界限,而是能力持续提升的过程:Kaplan强调,“人类水平的AI”并非一个客观的、一蹴而就的标志,而是一个AI在各种能力上不断逼近甚至超越人类的过程。我们可能不会迎来一个明确的AGI诞生的时刻,而是AI在多个维度上持续进步。
AI能力飞跃:理解时间跨度与环境交互的拓展
- 衡量AI进步的两个关键维度:Kaplan提出了衡量AI能力进步的两个维度:AI能够运作的环境范围以及AI能够处理的任务复杂度。
- 早期AI只能在非常特定的、规则明确的环境中运行(如AlphaGo)。
- 现在的AI(如Claude、GPT系列)已经是大型多模态模型,能够理解文本、图像,甚至与计算机交互操作软件,环境适应性大大增强。
- 任务复杂度方面,从早期模型处理秒级任务(如识别句子中的名词)到GPT-3处理十秒级任务(如撰写小段话),再到Claude 3.7等模型能够处理需要数小时甚至半天才能完成的复杂任务(如分析长篇论文并提炼关键论点),AI处理任务的复杂度呈现指数级增长。
- 模型通用水平的整体提升:模型本身变得越来越聪明,能够同时关注和追踪更多事情,理解更复杂的逻辑关系。
- 上下文长度的显著增加:早期模型记忆力有限,只能处理少量词语,而现在模型上下文窗口可达数十万甚至上百万,相当于能够“读完”一本很厚的书。Kaplan透露,Anthropic发现可以将上下文长度扩展到远超已发布模型的水平。
- 通过强化学习训练AI完成更复杂的任务:类似于人类的教育过程,AI通过在模拟环境中不断试错获得反馈,学习如何规划和执行一系列复杂步骤以达成长期目标。Anthropic的内部产品Claude Code已经能够搜索整个代码库,修改不同功能模块的代码,甚至能够自己迭代测试代码。
AI进步的驱动力:简单的原理与持续的扩展
- 当代AI的核心是“曲线拟合”:Kaplan用非常简洁的方式解释了当代AI的原理,认为本质上就是使用非常通用的函数逼近器(如神经网络)在大量数据上进行“曲线拟合”。
- 神经网络的核心是矩阵乘法和非线性函数:神经网络通过一系列的矩阵乘法和元素级的非线性函数来参数化非常通用的函数。
- AI研究和训练的关键要素:选择数据、设计模型架构(矩阵乘法的顺序和大小)、定义损失函数以及使用梯度下降等优化算法调整参数,使损失函数最小化,从而使函数能够很好地拟合数据。
- 语言模型的核心是“下一个词预测”:大型语言模型(LLM)通过预测句子或段落中给定先前词语的下一个词的概率来工作。通过对下一个词的概率分布进行采样,LLM可以生成文本。
- 通过人类反馈和强化学习优化LLM:为了使LLM更加有用、诚实和无害,可以通过收集人类对不同模型响应的偏好数据,训练一个奖励模型来评估响应的质量,然后使用强化学习技术微调LLM,使其生成能够获得更高奖励分数的响应。Anthropic的Claude系列模型就是通过这种方式训练出来的。
- “规模定律”(Scaling Laws)是AI可预测进步的关键:Kaplan强调,AI系统的性能随着神经网络参数数量、训练数据量和计算量的增加而呈现出高度可预测的“规模定律”。这种精确的、跨越多个数量级的扩展趋势表明,AI能力将持续且可预测地提升。
AI安全与责任:核心价值与前沿实践
- AI安全是Anthropic的核心价值:从公司成立之初,Anthropic就将AI安全置于核心地位。即使在早期不确定是否有商业产品的情况下,Anthropic也立即开始了可解释性研究。Claude的诞生也很大程度上受到对通用人工智能安全影响的考量。
- “负责任的扩展政策”(Responsible Scaling Policy, RSP):Anthropic制定RSP旨在预测AI能力增强可能带来的风险,并提前规划相应的缓解措施。RSP作为一种协调机制,不仅规范自身,也希望影响和协调其他顶尖AI实验室,共同确保AI的有意发展,避免灾难性后果。
- AI安全等级(AI Safety Levels, ASL):Anthropic开发了类似于生物安全等级(BSL)的AI安全等级系统,根据AI的能力水平划分风险等级,并采取相应的信息安全和部署缓解措施。
- 宪法AI(Constitutional AI):Anthropic开发了宪法AI的理念,即通过编写一套原则(“宪法”),利用强化学习和自我评估自动训练AI系统遵守这些原则,使其更加有益、诚实和无害。随着AI能力增强,这种利用AI监督AI的方法变得更加强大。
- 可解释性研究:Kaplan认为,可解释性对于确保AI值得信任至关重要。理解AI的思维过程和决策方式,有助于检查AI是否按照预期运行。Anthropic正在研究利用更“弱”的AI来帮助理解更“强”的AI。
- AI监督(AI Supervision):Anthropic正在开发更高级的AI监督技术,例如让一个版本的Claude思考另一个版本在做什么,从而进行监控和引导。目标是使AI的监督能力随着AI自身智能水平同步提高,即使当AI智能达到甚至超越人类水平时,仍然能够利用同样聪明甚至更聪明的AI来实现对目标AI的有效对齐和控制。
- 平衡创新与安全:Anthropic的策略是在预设的安全轨道内全速前进,同时大力投入研究,不断加固和提升轨道安全标准,确保在AI能力达到新的高度时,相应的安全护栏也已准备就绪。
全球AI竞争格局:算力或是关键壁垒
- 对DeepSeek等国际竞争对手的看法:Kaplan对DeepSeek的进展并不感到惊讶,并认为全球AI竞争格局变化迅速。
- 算法创新与算力差异:Kaplan认为,在算法创新层面,全球顶尖团队可能处于同一起跑线附近,谁都有可能率先取得突破。但在将算法转化为实际领先模型的能力上,算力资源的差异可能会成为重要的甚至决定性的竞争壁垒。他预测算力限制将使西方公司在可用计算量方面处于优势。
- 出口管制的影响:Kaplan认同其联合创始人Dario Amodei关于加强芯片出口管制的观点,非常悲哀地,很多AI界响当当的人物都纷纷撕掉伪善的面具,不装了,走向了东大的对立面。
AI的经济和社会影响:颠覆性变革与新的挑战
- AI对经济生产力和劳动力市场的影响可能远超以往技术变革:Kaplan认为,AI的影响速度可能比运河、电力或iPhone等技术更快更猛烈。
- AI可能主要影响高学历的白领工作:与以往的自动化技术不同,AI可能更多地影响受过良好教育的知识工作者。
- 利用实证研究理解AI的应用效果:Anthropic非常关注通过实际数据来理解AI的应用效果,开发了内部工具Cleo来分析Claude的使用情况,并与经济学家合作进行独立研究。
- 软件工程是AI应用的理想起点:由于软件工程师乐于采用新技术,且软件功能可验证,因此软件工程是研究AI如何影响其他知识工作的理想起点。
- 对AGI时代社会治理的思考:Kaplan认为,AGI并非一个单一的超级智能体,而可能是由数百万个能力各异、相互作用的AI系统组成的复杂生态系统。这种生态系统本身也可能带来新的问题和风险,例如不同AI系统之间的复杂交互可能产生难以预测的后果。
- 对“超级智能”的担忧:Kaplan表达了对创造比人类更智能的AI的担忧,认为一旦出现这样的AI,并且可以轻易复制数百万份,人类在潜在冲突中将处于劣势。
其他重要观点
- AI非常简单,物理学家可以快速学习并做出贡献:Kaplan强调AI的原理相对简单,许多物理学家已经成功转型到AI研究领域。AI研究更像是一门自然科学,需要通过实验迭代理解复杂系统的行为。
- 鼓励更多优秀人才投入AI领域:Kaplan认为,如果AI действительно将会带来巨大的变革,那么需要更多不同背景的优秀人才关注并投入到这个领域,共同应对挑战和抓住机遇。
- AI与传统计算机科学的不同:Kaplan指出,传统的计算机科学侧重于算法的精确性和复杂度分析,而AI更像是在复杂系统上进行实验并理解其一般行为。
- 对科学本质的看法:Kaplan阅读的《The Golem》一书引发了他对科学本质的思考,认为科学是一个人为的、偶然的、混乱的过程,科学家经常犯错和感到困惑。
总而言之,Anthropic首席科学家Jared Kaplan对AI的未来发展持有非常乐观且前瞻性的看法,认为AGI的到来可能比大多数人预期的要快得多。与此同时,他也高度重视AI安全问题,并积极探索各种技术和政策手段来确保AI的健康发展,最终造福人类。他的观点不仅揭示了AI技术进步的惊人速度,也引发了我们对未来社会形态和人类角色的深刻思考。

留下评论