第八章:AI Now Institute《人工权力:2025年景观报告》——对技术权力结构的批判性解构
AI Now Institute发布的《人工权力:2025年景观报告》(Artificial Power: 2025 Landscape Report)是2025年全球AI研究光谱中极为重要的一抹批判性色彩。作为一个专注于AI社会影响与治理的独立研究机构,AI Now抛弃了商业咨询公司那种“如何利用AI获利”的功利主义视角,转而采用政治经济学的解剖刀,深刻剖析了隐藏在技术代码背后的权力结构。这份报告是对当前主流技术乐观主义叙事的一次尖锐反叛,它直指AI发展的核心本质——这不仅仅是关乎智能的进化,更是关乎权力的集中与巩固。报告通过“结构性分析”的方法论,揭示了科技寡头如何通过掌控AI基础设施来重塑全球政治经济秩序。
报告的核心论点极具穿透力:AI绝非中立的工具,而是一种被精心设计的权力机制。AI Now Institute指出,当前的“AI热潮”在很大程度上是由少数科技寡头(Tech Oligarchs)精心策划的战略营销。这些巨头通过垄断算力、数据和人才,构建了难以逾越的护城河。报告犀利地指出,行业巨头利用“AGI神话”(AGI Mythology)——即AI即将发展成为全知全能的通用人工智能——以及渲染“AI军备竞赛”的紧迫感,成功地绑架了公共政策1。这种叙事策略的目的是将任何形式的监管都重新定义为“创新的障碍”或“国家安全的威胁”,从而在全球范围内推动去监管化,确保其扩张不受制约。AI Now认为,这种策略有效地转移了公众对当前紧迫问题(如劳工剥削、环境消耗、市场垄断)的注意力,将讨论引向了遥远的、假设性的“存在性风险”。
报告进一步揭露了AI作为“监控资本主义”升级版的本质。AI Now认为,当前AI技术的部署逻辑并不是为了赋能个体,而是为了更高效地提取数据、预测行为并控制劳动。报告提出了“被我们用”与“用在我们身上”的根本区别,指出绝大多数AI系统属于后者。例如,在工作场所,AI监控系统被用来精确计算员工的每一秒钟产出,将人异化为算法的附庸;在公共领域,面部识别和预测性警务系统加剧了对边缘群体的歧视与压迫。报告警告称,这种技术权力的滥用正在侵蚀民主社会的根基,因为它将决策权从公开透明的法律程序转移到了不透明的商业算法手中。这种权力的私有化使得公众无法对影响其命运的自动化决策进行问责。
面对这一严峻局面,AI Now Institute在报告中发出了一份激进的行动宣言。它呼吁公众、研究者和政策制定者必须“重新夺回”(reclaim)对AI未来的定义权。报告主张,AI治理不能仅仅停留在“伦理原则”的口头承诺上,而必须进入“反垄断”和“基础设施公共化”的深水区。具体建议包括:强制拆分云基础设施与模型服务、建立公共算力资源库、禁止在关键社会领域(如司法、招聘)使用黑盒算法等。报告强调,这场斗争的本质是“关于权力的斗争,而非关于进步的斗争”1,试图打破技术决定论的迷思,唤醒社会的政治自觉。
总结而言,AI Now Institute的《人工权力:2025年景观报告》是刺破皇帝新衣的那个声音。它在普遍的商业狂欢中保持了清醒的痛感,提醒我们关注技术进步的代价。这份报告的价值在于它提供了一种替代性的认知框架,迫使读者跳出效率和利润的单一维度,去思考公平、正义与民主的命题。对于深入研究AI产业的人士而言,这份报告是理解西方反垄断监管趋势、社会抵制运动以及未来政策风向不可或缺的参考文献。它告诉我们,如果不去制约资本与技术的合谋,我们得到的可能不是一个更智慧的世界,而是一个更森严的数字牢笼。

留下评论