第三回: 今昔政策之幽灵——美国AI哲学的内战与国会困境
在华盛顿特区的政策走廊里,有一种奇特的现象正在上演:同一个国家的AI政策每四年就经历一次180度的哲学转向,仿佛患了严重的政策人格分裂症。从特朗普第一任期的谨慎启蒙,到拜登时代的安全至上,再到特朗普第二任期的创新狂飙,美国的AI治理轨迹画出了一条令人眩晕的锯齿线。这不仅仅是党派之争的表现,更是美国社会在面对颠覆性技术时深层价值观冲突的外化。
这场AI哲学内战的根源,可以追溯到美国政治制度设计中的一个根本矛盾:民主制度的周期性变更与技术发展连续性需求之间的不匹配。当AI这样的变革性技术需要跨越数十年的持续投入和政策连续性时,四年一次的政治钟摆却在不断地重置游戏规则。
特朗普1.0:技术民族主义的萌芽
回望特朗普的第一任期,2019年签署的《美国AI倡议》(American AI Initiative)显得相对温和且具有跨党派共识。这份文件围绕五个核心支柱展开:增加研发投资、释放联邦数据和计算资源、制定AI技术标准、建设AI劳动力队伍、制定国际AI参与计划。
与2025年的激进政策相比,2019年的AI倡议更像是一份技术官僚的规划文件,强调的是培育生态系统而非击败竞争对手。彼时的特朗普政府虽然已经展现出技术民族主义的倾向,但在AI领域仍然保持着相对克制的态度。这种克制部分源于当时美国在AI领域的绝对优势——OpenAI刚刚发布GPT-2,中国的大模型还处于起步阶段,欧盟的AI法案更是遥不可及。
然而,即使在这种相对温和的框架下,特朗普1.0时代的AI政策已经埋下了后来哲学转向的种子。对"美国AI领导地位"的强调、对政府监管障碍的警惕、对国际竞争的敏感,这些后来成为特朗普2.0时代政策核心的元素,在2019年就已经初见端倪。
拜登插曲:安全主义的全面胜利
拜登政府的AI政策代表了美国技术治理传统中另一种截然不同的哲学路径。2023年10月30日签署的第14110号行政令《关于人工智能的安全、可靠和可信的开发与使用》,其长达111页的篇幅本身就体现了一种截然不同的治理理念——事无巨细的预防性监管。
这份行政令援引《国防生产法》要求AI开发者向政府报告安全测试结果,设立首席AI官职位监督政府AI使用,建立AI安全研究所评估最强大的AI系统。更重要的是,它确立了八项指导原则:安全和保障、创新和竞争、美国价值观、公平和公民权利、消费者保护、隐私、工人支持和权益、人类能动性。
这种多元价值平衡的做法体现了典型的民主党治理哲学——通过制衡和监督来防范技术滥用,即使这可能以牺牲效率为代价。在拜登的框架下,AI不仅仅是竞争工具,更是可能加剧社会不平等、威胁就业、侵犯隐私的潜在风险源。因此,政府的责任是为这种颠覆性技术设置"护栏",确保其发展符合民主社会的基本价值。
哲学断裂线的深层剖析
当我们将特朗普2.0的AI政策与拜登时代进行对比时,会发现这不仅仅是政策重点的调整,而是两种根本不同的世界观的碰撞。
在国家角色定位上,拜登政府将自己视为社会利益的平衡者和公共价值的守护者,而特朗普政府则将自己定位为国家竞争力的推进器和产业利益的代言人。前者强调政府监管的必要性,后者强调市场机制的优越性。
在风险认知上,两者的差异更加明显。拜登政府认为AI的最大风险来自于技术滥用——算法偏见、隐私侵犯、工作替代,因此需要通过制度设计来预防这些风险。特朗普政府则认为AI的最大风险来自于竞争落后——被中国超越、失去技术优势、错失历史机遇,因此需要通过减少限制来释放创新潜力。
在价值排序上,拜登时代将公平、安全、隐私等社会价值置于效率和竞争之前,而特朗普时代则明确将国家竞争力和技术领先地位置于其他考虑之上。这种价值排序的差异直接导致了政策工具选择的根本分歧。
国会困境:制度缺陷的集中体现
这种行政部门政策的剧烈摇摆,暴露了美国政治制度在应对长期技术挑战时的结构性缺陷。国会作为立法机关,本应为AI治理提供稳定的法律框架,但现实情况却令人失望。
在特朗普第一任期的四年中,国会在AI立法方面几乎毫无建树。虽然有超过50项AI相关法案被提出,但绝大多数都停留在委员会阶段,真正成为法律的寥寥无几。这种立法迟滞的原因是多方面的:共和党更关注减少监管和促进创新,民主党更重视算法公平和劳工保护,两党难以在AI治理的基本原则上达成共识。
拜登时代的情况稍有改善,《CREATE AI法案》等少数法案获得通过,但这些立法主要集中在研发投资和机构建设方面,对于AI监管的核心问题——如算法责任、数据权利、安全标准——仍然缺乏明确的联邦法律框架。
更令人担忧的是州联邦分歧的加剧。2024年,45个州引入了近700项AI相关法案,113项成为法律,但这些州级立法往往相互冲突、标准不一。加州的AI安全法案要求对大型模型进行严格测试,德克萨斯州却明确禁止对AI公司施加"过度监管",这种碎片化的监管格局正在成为美国AI发展的新障碍。
政策不确定性的代价
这种政策哲学的频繁转换正在对美国的AI产业造成深远影响。AI开发需要巨额的长期投资——训练一个GPT-4级别的模型需要1亿美元以上,建设一个先进的数据中心需要10-20亿美元,这些投资的回收期往往超过一个总统任期。
当基础的游戏规则每四年就可能发生根本性改变时,企业如何制定长期战略?当今天鼓励的行为明天可能被禁止时,创新者如何保持投资信心?这种政策不确定性本身就成为了创新的最大障碍。
更深层的问题是人才流失。硅谷的AI研究者们越来越担心政治环境的不稳定性。许多顶尖的AI科学家开始考虑移居到政策环境更加稳定的国家,如加拿大、新加坡,甚至中国,特别是相当比例的AI顶尖人才都是华人。这种人才流失的长期影响可能比任何政策失误都更加致命。
制度创新的必要性
面对这种政策哲学内战,美国急需进行制度创新来确保AI治理的连续性和有效性。一些政策专家提出了设立"AI治理委员会"的建议,类似于美联储的独立性设计,让AI政策制定摆脱短期政治周期的影响。
另一种可能的方案是建立跨党派的AI治理框架法,确立一些基本原则和机制,无论哪个党派执政都必须遵守。这种做法在美国并非没有先例,《联邦储备法》、《证券法》等重要立法都建立了相对稳定的制度框架。
民主制度的AI挑战
从更宏观的角度看,美国的AI国策困境反映了民主制度在应对快速技术变化时的内在局限。民主制度的优势在于通过辩论和制衡来防范权力滥用,但这种机制在需要面对快速决策和长期投入的技术挑战时,往往显得迟缓和低效。
中国的国家主导模式在价值观上有所不同,在政策连续性和执行效率上确实具有优势。当中国能够制定并坚持执行多个“五年计划”的AI发展规划时,美国却在为四年后的政策不确定性而困扰。
历史的教训与启示
历史告诉我们,技术革命往往青睐那些能够保持政策连续性和战略定力的国家。英国在工业革命中的领先地位得益于其相对稳定的政治环境和持续的投资,美国在20世纪的技术霸权也离不开从罗斯福新政到里根时代相对一致的科技政策方向。
如今,美国面临的挑战是如何在保持制度活力的同时,确保AI政策的连续性和有效性。这不仅仅是技术问题,更是制度设计和政治智慧的考验。如果美国无法解决这个根本性矛盾,那么无论采取什么样的AI政策,都难以在长期竞争中保持优势。
在全球AI竞赛日趋激烈的今天,美国已经没有时间继续这场内耗的理念与哲学内战。历史不会等待华盛顿的政治游戏结束,而技术进步更不会因为党派纷争而放慢脚步。美国如果不能尽快找到超越党派分歧的AI治理共识,今天的政策混乱可能不得不为明天的失败买单。

留下评论