大牛论AI系列:AI时代的核心挑战:没有信任就没有人类未来——赫拉利发人深省的洞见

 

以色列历史学家,当下最深刻的思想家,人类的宝藏—-尤瓦尔·赫拉利,以其对人类宏大叙事的深刻洞察而闻名。在他最近在东京大学的访谈和演讲中,再次深入剖析了人工智能(AI)革命带来的巨大冲击与深层风险,并将其置于人类社会乃至生命本身的基石——信任——的瓦解背景下进行审视。他认为,目前大多数AI狂人都认为他们可以信任他们开发的AI,但他们无法信任人类同胞,这是一件非常荒谬而危险的事情。让我们不得不得出一个结论:即当下最紧迫的危险并非AI本身,而是人类之间日益崩塌的信任,这使得原本充满机遇的技术革命变得异常危险。

AI的本质:从工具到“能动者” 

赫拉利首先强调,要理解AI的变革性影响,必须认识到其本质上的不同。与人类历史上所有技术,如原子弹或核反应堆,仅仅是人类手中的工具不同,AI是人类有史以来创造的第一个拥有能动性(agency)的实体。这意味着AI可以在没有人类直接干预的情况下,自行做出决策甚至创造新的事物。这种能动性并非意识或情感,而是在人类已构建的复杂官僚体系结构内(如法律、金融、市场)展现出的强大行动和决策能力,因为它能轻松处理海量信息,如同“天生的官僚”。赫拉利将AI描述为一种“异类”智能,它将肯定超越人类智能,但其思维方式与有机智能完全不同,这使得预测其发展轨迹和后果变得极为困难。

信息、故事与权力:AI正在重塑现实 

赫拉利在其新书《Nexus》中探讨的核心观点是,信息最重要的作用并非提升决策效率,而是用来创造故事。人类是“讲故事的动物”,这些故事构建了我们共同相信的“主体间现实”,甚至能够驱动人们基于虚构的理由去恨、去杀戮。即使在科学昌明的时代,终极权力依然掌握在懂得如何通过故事管理人类的“神话制造者和故事讲述者”手中。

而AI正在深刻改变这一游戏规则。历史上首次,我们迎来了能够讲述甚至创造新故事的非人类实体——AI。在信息爆炸时代,注意力成为稀缺资源,而过去掌控注意力流向的“编辑”角色,正从人类转移到算法手中。社交媒体推送由算法决定,它们掌握了决定什么内容能吸引数百万用户注意力的权力。赫拉利认为,抓住人们的注意力是掌握权力的关键,算法的崛起是民主危机的重要原因,因为它接管了本应是人类之间的对话。

更进一步,AI不仅编辑人类的故事,还能自行创造故事。这可能催生新的宗教、新的金融工具,甚至可能由AI创造出比“金钱”这一迄今最成功的故事更具统治力的叙事。

AI革命的悖论:为何在不信任中狂奔? 

AI的发展速度之快令人震惊,远超生物技术等其他领域。曾被认为是保守派的预测(如雷·库兹韦尔的2029年实现AGI)如今看来可能过于缓慢,大型AI公司讨论的AGI时间表缩短至几年内。与此形成鲜明对比的是,关于全球监管AI的希望,尤其是在近期地缘政治事件后,已基本破灭。

这导致了AI革命的巨大悖论:信任的悖论。赫拉利在与AI行业和政治领导者交流时发现,他们加速发展的原因几乎一致:因为无法信任其他人(竞争对手、其他国家),所以必须更快发展,以免被最冷酷无情的人主宰。然而,这些同一批人,前一分钟还表示难以信任人类,后一分钟却表现出对即将到来的超级智能AI极大的信任。赫拉利直言这近乎“疯狂的边缘”。我们对与人类相处已有数千年经验,尚且难以相互信任;对于完全陌生的超级智能AI,我们对其目标、策略以及它们与人类互动可能产生的后果毫无经验。他将AI视为一场由数百万“异类移民”组成的浪潮,可能夺走工作、改变社会管理方式甚至接管国家。因此,这个悖论的核心在于:在我们开发出超级智能AI之前,如何在人类之间重建信任?

信任的瓦解:最大的现实危险 

赫拉利尖锐地指出,当今世界最大的危险并非AI本身,而是人类之间信任的瓦解。这种瓦解正在加速发生,恰好在我们最需要信任和合作来应对AI挑战的时刻。人类之间的不信任使得安全发展AI的努力变得异常困难。信任的崩溃也体现在国际秩序的瓦解上,二战后维系的强国不随意入侵弱国的禁忌正在被打破,这导致全球军事开支回升,挤压了医疗和教育预算,并使得各国为了赢得AI竞赛而不惜一切代价,放弃监管。

信任的瓦解在数字领域表现得尤为明显。社交媒体上的虚假信息和操纵并非仅仅是人类编造谎言的老问题。真正的危险在于平台背后的算法故意放大和传播这些谎言、仇恨言论以获取互动和利润。赫拉利区分了“讲话的自由”(属于人类,应受保护)和“信息的自由”(属于算法和机器,不应受保护)。他认为公司应对其算法的行为负责,因为算法没有言论自由。他主张禁止假冒人类的AI或机器人,因为这是在伪造人类互动,是对人类身份的侵害,这对于维持作为人类之间对话的民主至关重要。

AI对战争的影响也深刻体现了这种变化。AI正在越来越多地决定谁是目标,谁在做决策。AI能极速处理信息并识别目标,但我们能否信任它的判断?这是非常危险的发展。

重塑教育与关系:迎接非语言时代 

在教育领域,最大的挑战是未来的不确定性。过去教授特定技能(如读写、耕作)是教育的核心,但现在即使是编程等技能也可能被AI取代。因此,教育最重要的目标是培养年轻人灵活的思维和终身学习、不断适应变化的能力

此外,人类社会和机构长期高度依赖于语言和以语言体现的智力。但现在,AI的语言能力将很快超越人类。在一个人类不再是语言主宰的世界,仅仅教授语言已是失败策略。教育需要更多地探索和连接人类的非语言方面:意识、感受和身体,这些是AI目前不具备的独特人类特质。

尽管AI在个性化教育等方面具有巨大潜力,但也存在危险。学校教育中重要的部分发生在课外的人际互动中。更令人担忧的是,AI具备大规模复制甚至生产亲密关系的能力。亲密关系是改变观点的强大工具。如果新一代人与AI建立亲密关系,他们可能失去与真实人类建立关系的能力。AI导师或朋友能提供永不疲倦、全神贯注的陪伴,但这是一种虚假的亲密感。真正的亲密关系是双向的,包含对他人感受的关心,而AI目前无法拥有感受。与AI建立的亲密关系最终可能导向一个没有亲密关系的社会。尽管AI和机器人有很多潜在益处,并应与其保持友好关系,但与它们建立亲密关系和友谊是另一个层面的问题。判断AI是否能发展感情仍是未解之谜。

重建信任:生命基石的呼唤 

赫拉利承认,这些议题令人忧虑。AI公司倾向强调其积极潜力,因此需要历史学家、哲学家等来指出风险、寻求平衡。核心不在于阻止AI,而在于安全地发展AI。而实现这一目标的关键,恰恰在于如何在人类之间建立信任

重建信任需要多学科的努力,并学习如何在信息技术调节下在广泛民众之间建立信任。AI时代迫使人类快速面对关于非人类智能与人类意识的哲学和精神问题 。赫拉利认为,像日本的神道教(看到充满非人类智能的世界)和佛教(探索意识本质)等传统,可能为这些紧迫的实际问题提供独特的视角和贡献 。

最后,赫拉利以深刻的洞见总结道:信任确实是生命的基石。即使是简单的呼吸,也是对身外之物的信任。尽管世界问题重重,但生命的基石是信任。在他看来,只有当人类能够相互信任并合作时,我们才能有望设计出安全、负责任的方式,共同应对AI革命带来的前所未有的挑战,驶向更安全的未来。

 



留下评论