AGI才刚刚有了定义,ASI就吵起来了。近日全球最杰出的AI科学家和技术领袖齐聚一堂,探讨超级智能(ASI)发展的路径、时间表以及随之而来的文明级风险,参加讨论的有约书亚·本吉奥,杰弗里·辛顿,杨乐坤,黄仁勋,李飞飞和比尔·戴利(前谷歌CEO施密特也在近期另一场与李飞飞的对谈中谈到这个话题)。这些因对深度学习和AI基础设施做出开创性贡献而获得2025年伊丽莎白女王工程奖的先驱们,在超级智能何时到来、其本质是“增强”还是“取代”人类,以及社会应如何应对风险等关键问题上,展现出深刻而紧迫的分歧。
核心分歧一:超级智能的定义与创意边界
专家们普遍接受通用智能(AGI)为人类水平的智能,而数字超级智能(ASI)则被定义为智能等同或超越所有人智慧总和的机器。
AI已部分“超人”:对于ASI是否已部分到来,存在共识:AI在某些专业领域已超越人类。例如,机器能够快速翻译上百种语言,或以人类难以企及的粒度识别全球22,000种物体类别。
“创造力”的缺失:然而,谷歌前高管、斯坦福教授李飞飞(Fei-Fei Li)和谷歌前CEO埃里克·施密特(Eric Schmidt)提出,现有AI算法距离真正的创造力仍有距离。李飞飞质疑AI能否成为牛顿或爱因斯坦,指出目前的算法即使拥有所有历史数据,也无法推导出牛顿运动定律,因为它缺乏人类特有的抽象能力和创造力。施密特进一步解释,今天的AI系统难以实现“目标的不定常性”(non-stationerity of objectives),即在执行过程中改变目标,而这是人类创造力的重要方面。
核心分歧二:ASI的时间表:3年、5年还是20年?
关于ASI的预计抵达时间,专家群体的看法两极分化,警示着未来监管准备工作的巨大不确定性:
激进派:三到四年内的硅谷共识:施密特指出,硅谷存在一种“旧金山共识”,认为由于当前技术加速带来的复合效应,超级智能将在三到四年内到来。
技术路径驱动的短期预测(5年):Meta首席AI科学家杨立昆(Yann LeCun)观察到,AI在过去六年中,在跨越不同时间范围进行规划的能力上正在呈指数级增长。他推测,如果这一趋势持续,AI在大约五年内可能达到一名雇员在工程任务中所具备的能力水平。
谨慎派:20年内必将实现:深度学习先驱杰夫·辛顿(Geoffrey Hinton)给出了一个更明确的中期预测。他表示,如果将AGI定义为“当机器与你辩论时,它将总是赢”的时刻,那么这一刻在20年内“肯定会到来”。
科学家的深刻质疑:杨立昆坚信,要实现真正的人类级智能,当前的LLM范式仍不完善,需要“一些重大突破”才能让机器拥有人类和动物所具备的智能。他提醒,AI的进步不仅仅是增加计算资源和数据,而是一个科学问题。
核心分歧三:AI的定位:增强人类还是最终取代?
对于AI的终极目标,专家们持有对立观点:
增强论(Augmentation):李飞飞和图灵奖得主比尔·戴利(Bill Dally)强调,AI的最终目标是增强人类,而非取代或超越人类。他们认为AI应专注于人类不擅长的任务(如解决数学奥林匹克问题或翻译百种语言),从而使人类能够专注于独有的特质,如创造力、同理心以及与他人的互动。
取代论(Replacement)的可能性:杨立昆则持有不同意见。他“不敢苟同”,认为从概念上讲,没有理由阻止我们建造最终能够完成几乎所有人类能做的事情的机器。他补充道,目前虽然空间和机器人技术滞后,但AI进行自我AI研究的能力,即提高编程和算法理解的能力,正以惊人的速度发展,这可能“解锁许多其他东西”。
针对世人的警示:失控风险与财富集中
在加速的技术发展面前,最紧迫的风险警告集中在机器的自主权和经济影响上。
AI失控的风险:深度学习先驱杨立昆(Yoshua Bengio)坦言,ChatGPT问世后,他经历了“觉醒时刻”,意识到如果不控制目标,机器一旦比人类聪明,后果将不堪设想。他指出,风险在于我们正在构建能够理解语言、拥有目标,但我们却无法控制其目标的机器,一旦它们比人类更聪明,权力滥用的后果不堪设想。这促使他完全改变了研究议程,专注于AI风险的应对。
财富与权力的集中:施密特和李飞飞均强调,AI将带来万亿美元级别的经济效率和财富。施密特警告,这种技术的网络效应(network effects)往往会将利益集中于少数赢家——少数国家、少数公司和少数人。虽然AI能够实现医疗或交通的“大规模民主化”(demonetization),即服务免费化,但李飞飞提醒,这种增加的全球生产力不一定会转化为共享繁荣,因为共享繁荣是一个更深层次的社会问题,需要政策和政治干预。
这些来自全球AI领域顶尖专家的激烈分歧,揭示了我们在迎接超级智能时所面临的巨大不确定性。面对短期内AI可能达到员工级智能的预测、机器目标可能失控的风险,以及财富可能向少数人集中的警告,您希望深入探究各国应采取何种公共政策或监管措施来确保人类的能动性和尊严?

留下评论