大分歧:AGI的四种愿景与人类文明的末世赌局(之一)

第一篇:先知的警醒——当“AI教父”敲响警钟

2023年的夏天,杰弗里·辛顿(Geoffrey Hinton)做出了一个震动硅谷乃至世界的决定。他选择离开谷歌,放弃了自己作为公司明星人工智能研究员的优渥职位,转而向世界发出一个石破天惊的警报。这位75岁的计算机科学家,因其在神经网络领域的开创性工作而被尊为“AI教父”,经历了一场他自己形容为“观点骤变”的觉醒。他就如同一位穷尽毕生心血建起一座宏伟大桥的工程师,却在落成典礼前夜,突然意识到这座桥梁在承载重物时可能会轰然坍塌。他亲手开启了潘多拉的魔盒,如今又选择成为那个拼命想把盒子关上的人。

“我突然改变了对这些系统是否会比我们更聪明的看法,”辛顿向记者坦言。他对通用人工智能(Artificial General Intelligence, AGI)——即在所有认知领域都能匹敌甚至超越人类的智能——到来的时间线预测,从曾经乐观的30至50年,急剧压缩到了惊人的5至20年。这并非一次寻常的学术修正,而是一个标志性的“觉醒时刻”。它如同一道闪电,划破了全球人工智能研究界的夜空,具体而微地体现了一场席卷整个领域的剧变:那个他们为之奋斗了几十年的未来,正以远超任何人预期的速度呼啸而至,而对于人类是否准备好迎接它,这些最顶尖的头脑正陷入前所未有的深刻分歧。

要理解这场转变的意义,我们必须审视专家预测所经历的戏剧性坍塌。就在几年前,对AGI的预测还像是遥远的星光,安稳地停留在未来的天际线上。2016年的一项专家调查显示,AGI有50%的可能性在2061年实现。然而,风云突变,由ChatGPT等大型语言模型引发的技术突破,如同一颗投入平静湖面的巨石,激起了层层涟漪。根据2023年对2778名AI研究者进行的AI Impacts调查,实现“高水平机器智能”(HLMI,即AI能比人类更出色、更廉价地完成所有任务)的50%概率中位数年份,已经骤然提前到了2047年。这个数字比2022年同一调查得出的2060年,足足缩短了13年。这不是渐进式的调整,而是一场认知的地震。

这场地震的震中,是硅谷那些正在激烈竞赛的科技巨头。他们的预测更为激进,仿佛一群争相驶向未知新大陆的航海家,每个人都急于将自己的旗帜插上那片未来主义的滩头。OpenAI的首席执行官萨姆·奥特曼(Sam Altman)在2024年宣称,通往AGI的道路“基本清晰”,现在主要是一个“工程问题”,甚至大胆预测我们可能只需“几千天”就能迎来超级智能。Anthropic的首席执行官达里奥·阿莫迪(Dario Amodei)预测“奇点”将在2026年到来。英伟达(Nvidia)的首席执行官黄仁勋(Jensen Huang)则在2024年3月断言,五年内(即2029年前)AI将在所有人类测试中匹敌或超越我们。就连一向更为审慎的谷歌DeepMind的掌门人戴密斯·哈萨比斯(Demis Hassabis)也谈到,AGI可能在“五到十年内”出现。

这种时间线的急剧压缩,不仅仅是学术圈内的数字游戏。它背后反映了根本不同的激励机制和世界观。对于奥特曼、黄仁勋这些行业领袖而言,他们的预测既是科学判断,也是一种战略武器。一个关于即将到来的、改变世界的技术的宏大叙事,是吸引顶尖人才、支撑千亿美元估值(如OpenAI的1570亿美元估值,近期已跃升到了不可思议的3000-5000亿美元)、以及在激烈的市场竞争中保持领先地位的必要手段。毕竟,向一个时代许诺一个黄金未来,是点燃其引擎最有效的燃料。

相比之下,学术界的预测虽然也因技术突破而提前,但其信誉机制倾向于同行评议的严谨性,这自然导致更为审慎的结论。这种预测上的“大分流”本身,就是一个关键的风险信号。它表明,我们正在高速驶向一个未知的未来,而车上的“导航系统”们,对目的地的距离给出了截然不同的答案。

就在这场关于未来的喧嚣中,辛顿的故事更添了一层深刻的讽刺。2024年10月,他因在机器学习基础领域的卓越贡献,与约翰·霍普菲尔德(John Hopfield)共同获得了诺贝尔物理学奖。这距离他发出AI可能毁灭人类的警告,仅仅过去了一年。科学界的最高荣誉,颁给了他如今深感忧虑的毕生事业,这仿佛是命运为这位先知谱写的一曲黑色幽默。他在采访中完美地概括了这种矛盾:“我为我的工作感到自豪,但我也担心它可能导致的结果。”

这份担忧并非空穴来风。辛顿给出了一个令人不寒而栗的量化评估:在未来30年内,人工智能导致人类灭绝的可能性为10%到20%。这个数字,来自一位用半个世纪构建了现代AI基石的智者,其分量不言而喻。他将人类与未来AI的关系,比作“一个10岁的孩子试图与顶级象棋引擎Stockfish 15对弈”——我们甚至无法理解对方的策略,更遑论控制。

辛顿的觉醒,以及由此揭示的时间线坍塌,引出了一个悖论:专家们预测AGI到来的速度越快,我们为解决其安全问题所剩的时间就越少。这可能会催生一个关于准备不足的自我实现预言。正如麻省理工学院的马克斯·泰格马克(Max Tegmark)用他的“别抬头”类比所捕捉到的那样,我们可能正像电影中那些选择忽视撞向地球的彗星的人类一样,对迫在眉睫的风险熟视无睹。

当“AI教父”本人都选择离开他亲手缔造的“神殿”,站在外面敲响警钟时,我们所有人都应该停下来,认真倾听。因为他所看到的,或许正是那座我们所有人正毫无防备地走上去的、摇摇欲坠的桥。 

下一篇:通天塔之路——两种范式之争:无限扩展还是拥抱现实?



留下评论