
第一分钟优势:战争不是从爆炸开始,而是从"结案"开始
同一夜。不同房间。不同屏幕。
2026年2月26日,日内瓦湖畔的洲际酒店。第三轮美伊间接谈判在一种几乎是仪式性的冷淡中收场。
美方代表的立场没有松动一寸:零浓缩。拆除全部核设施,交出所有浓缩铀,接受无限期全面核查。这不是谈判条件,这是投降条款。伊朗代表拿出了他们能给的最大让步——承诺"永远不拥有可用于核武器的核材料",同意IAEA全面核查,甚至接受"永不囤积浓缩铀"的限制条款。据阿曼斡旋方事后透露,这已经是伊朗建国以来在核问题上最深的鞠躬。
被拒绝了。
桌上的杯子还没凉,一位参与斡旋的外交官后来对半岛电视台说了一句意味深长的话:"我从未见过谈判如此高效地终结自己。好像双方来之前就已经知道结果了。"
他说对了一半。至少有一方,确实已经知道了。
一、算法说"外交已终结"
谈判结束后的24小时里,一个细节从多条信息源交叉浮出水面:美以联合安全系统据称在谈判收场后数小时内完成了一次"外交可行性评估"。这不是哪位白发苍苍的国务院顾问坐在壁炉旁翻阅电报得出的结论,而是一套算法化推演——把过往三轮谈判的文本数据、伊朗核活动的实时监测轨迹、地区军力部署态势、信号情报参数、甚至社交媒体上伊朗民意的情感指数,统统灌进模型,输出一个冷酷的概率分布:外交路径达成可持续协议的可能性,低于某个阈值。
这种评估的意义不在于它比外交官"更正确"——事实上,没有人能证明一个拒绝了对方最大让步的谈判方是在做"理性决策"还是在执行预设剧本。它的意义在于,它更适合决策机器。
想象一下你是一位将军,面前有两份报告。一份来自外交团队,措辞审慎,充满"尚存空间""不宜过早放弃""建议保持接触"这类人类特有的模糊善意。另一份来自系统,一页纸,三个数字:当前协议可达成概率12%,伊朗核突破时间窗2-3天,军事方案就绪度97%。你不需要是鹰派也不需要是鸽派,你只需要是一个被训练为"做决定"的人——而系统已经帮你把犹豫压缩成了概率,把争论压缩成了结论,把所有灰色地带涂成了非黑即白。
后来有媒体追问:既然伊朗已经做出了前所未有的让步,为什么不给外交再一次机会?一位不愿具名的前国安委员会官员的回答颇具时代特征:"系统评估表明让步的可信度不足以改变整体态势。"注意这句话的句式——不是"我们认为",而是"系统评估表明"。主语已经换了。
这就是AI在这场战争中扮演的第一个角色——它不是杀人的工具,而是"结案"的工具。它让"继续谈"显得像不理性的拖延,让"动手"显得像理性的执行。当算法说"外交已终结",战争就获得了一条看似理性的起跑线——而起跑线一旦画好,后面的一切不过是"按计划推进"。
二、流水线上的战争
"结案"之后的48小时,如果你有权限看到中央司令部(CENTCOM)的部署节奏图,你会以为自己在看一家科技公司的产品上线倒计时。
双航母战斗群——"林肯"号和另一个战斗群——在波斯湾与阿拉伯海就位。125架以上美军飞机进入中东战区,包括4架从密苏里州怀特曼空军基地起飞的B-2"幽灵"隐身轰炸机,挂载2000磅GBU-31联合直接攻击弹药。F-22、F-35、F-16编队完成空中加油和航线预编程。"战斧"巡航导弹在驱逐舰和潜艇的垂直发射系统里完成最后一轮目标数据装订。以色列空军200多架飞机进入高强度待命,弹药库存开始按波次消耗模型分配。
关键不在于"调动了多少"。2003年伊拉克战争的兵力集结耗时数月,1991年海湾战争的"沙漠盾牌"行动更是用了半年。关键在于"调动得有多快"——这一次,从"结案"到"第一枚弹着点",只有48小时。
速度来自哪里?
来自一条被AI重新设计的流水线。传统战争规划是一项手工艺:情报分析师花几周整理卫星照片,参谋军官花几天排定打击优先级,后勤团队花几天计算弹药消耗与补给节点,空中管制花几天协调数百架飞机的航线冲突。每一步都需要人类对话、争论、妥协、修改、再确认。整个过程像一场漫长的手工编织。
现在,Maven智能系统把这条编织线变成了流水线。
Maven是Palantir公司为五角大楼运营的AI作战平台,合同金额从最初的4.8亿美元一路膨胀到约13亿美元,覆盖所有美军作战司令部的25,000多名用户。它做的事,说穿了就是一句话:把战争变成数据管道。卫星影像灌进来,信号情报灌进来,无人机侦察灌进来,盟友共享数据灌进来——系统在另一头输出目标清单、优先级排序、波次方案、航线规划、弹药匹配、冲突检测。一个火力协调员借助Maven每小时可以处理80个目标;没有它,同一个人只能处理30个。
这不是50%的效率提升。这是战争节奏的重新定义。
美国国家地理空间情报局(NGA)局长在2025年底的一次内部讲话中透露了一个更令人不安的前瞻:到2026年6月,Maven将开始向作战指挥官传输"100%机器生成的情报"——不是人类分析师的报告经AI辅助,而是AI直接生成、人类审阅后分发。大语言模型将被嵌入情报生产链的核心。从"人写机器帮忙"到"机器写人盖章",转变正在以月为单位推进。
这条流水线的效率,在2月28日的凌晨得到了验证——以一种让旧时代军事观察家目瞪口呆的方式。
三、"刷新"代替了"开火"
北京时间2026年2月28日下午约14:20——美国东部时间凌晨1:15——德黑兰响起了密集的爆炸声。
特朗普在一段预先录制的视频中宣布了打击行动。他的措辞像商业发布会多过战争动员:我们将摧毁伊朗的导弹工业,消灭伊朗海军,终结它的核野心。以色列国防部长卡茨确认这是"先发制人"。代号"史诗之怒"(Operation Epic Fury)的美军行动与代号"怒吼之狮"(Operation Roaring Lion)的以色列行动同步启动。
第一天的数字:
1000个以上目标被打击——CENTCOM官方口径。以色列空军在伊朗31个省中的24个投放了超过1200枚弹药。9座城市同时遭到攻击。伊朗全国互联网连通率在打击开始后的几分钟内跌至正常水平的4%——据NetBlocks监测,其中约一半是网络攻击导致的瘫痪,另一半是伊朗当局自行切断的。
让我们把1000这个数字放进历史坐标里感受一下。
2003年"震慑与畏惧"行动——21世纪最大规模空中打击的此前纪录保持者——首日打击了约300个目标,已经被认为是"压倒性火力"的教科书案例。1991年海湾战争的空中战役,整整38天打击了约40,000个目标,日均约1000——但那是用六个月的准备时间换来的。
而"史诗之怒"在48小时准备后的第一天就达到了海湾战争的日均水平。
首轮对预设目标的命中率,据战后各方口径交叉比对,约为92%。这个数字值得停下来想一想。它意味着什么?它意味着在一场涉及1000多个目标、125架以上飞机、数百枚巡航导弹、多个战区同步协调的超大规模联合打击中,每10枚弹药只有不到1枚偏离预期。
这不是飞行员技术好不好的问题。这是整条数据管道——从卫星捕获目标图像到系统标注坐标,从模型计算最优进入角度到弹药飞行中持续接收修正指令——每一个环节都在以毫秒为单位"刷新"的结果。
在指挥室里,战争不是从"开火"开始的——它从"刷新"开始的。系统把卫星数据、无人机侦察、信号情报实时喂给制导环路;模型在后台不断修正轨迹与角度,把每一枚弹药的飞行路径当作一个持续优化的参数集;打击不再是"发射然后等结果"的一次性事件,而更像一次"自适应更新"——弹药在飞行中仍然在学习,仍然在调整,直到最后一秒。
92%的命中率不是一个宣传数字。它是AI战争化的操作说明:把窗口拉长,把误差压缩,把不确定变成可执行。
四、一个容易被忽略的细节
同一天,以色列宣布全国进入紧急状态,全境拉响警报。但在警报声之下,一个容易被忽略的细节正在改变战争与社会的界面。
预警不再是广播。
传统战争的空袭警报是无差别的——全城响、全民跑、全员恐慌。而这一次,据以色列媒体报道,预警系统向手机用户发送的是"精准推送式"避难指示:根据你的位置、来袭导弹的预计弹着点、你附近最近的避难所方位,定向发送个性化的防护建议。不同街区的居民收到的指示不同,不同楼层的住户看到的撤离路线不同。
战争第一次在社会层面呈现出一种平台逻辑:把恐慌的随机性改造成"可管理的流量"。空袭从一个让所有人同时恐惧的事件,变成了一个可以被"分区降级"处理的运维问题——这不是冷血,这是算法治理渗透到战争毛细血管后的自然结果。它让社会在承受打击的同时保持最低限度的秩序,就像一个网站在遭受DDoS攻击时仍然能通过负载均衡维持部分服务。
你可以说这是进步——更少的人会在恐慌中踩踏死亡,更多的人能及时进入避难所。但你也可以感受到一种不安:当战争被这样"管理",当空袭可以被"运营",当恐惧本身变成一个可以被优化的指标,那么发动战争的心理门槛是不是也在同步降低?如果一个社会能够在空袭中保持"可运营状态",那么对于决策者而言,"开战"就不再是一个牵动全社会崩溃的不可逆决定,而更像一个可以被"灰度发布"的选项——先打一轮试试,不行再调整。
这可能是AI军事化最隐蔽的影响:它不仅改变了战场,也改变了社会对战争的承受模型——而承受模型一旦被"优化",战争就更容易被"选择"。
五、被驱逐的守夜人
但在这部战争机器全速运转的48小时里,有一个不协调的音符被大多数人忽略了。
2月27日——打击开始前不到24小时——国防部长赫格塞斯签署命令,将Anthropic公司列为"国家安全供应链风险",禁止所有联邦机构使用其AI模型Claude。特朗普随即发布行政令,要求全面清退Anthropic技术。
对一家美国本土科技公司实施"供应链风险"认定,这在美国历史上前所未有。此前这一标签只被用于华为、卡巴斯基这类外国实体。
Anthropic的"罪行"是什么?它拒绝移除两条伦理护栏:禁止将Claude用于对美国公民的大规模监控,以及禁止将Claude用于完全自主的武器系统——即不经人类批准就能自行决定杀伤目标的系统。
而Claude恰恰是五角大楼保密网络上部署的第一个,也是唯一一个前沿AI模型。它通过Palantir的集成,嵌入了Maven智能系统的核心工作流——那条正在为"史诗之怒"行动输出目标清单的流水线。多位国防官员私下对记者承认,Claude在军事相关应用中的性能"领先其他模型",切断它将是"一个巨大的麻烦"。
但切断它恰恰发生在战争前夜。
同一个晚上,OpenAI宣布获得五角大楼保密网络合同。讽刺的是,OpenAI的合同条款包含了与Anthropic几乎相同的三条护栏——禁止大规模监控、禁止自主武器、外加第三条禁止"高风险自动决策"。xAI——马斯克的公司——则以"所有合法用途"的零限制姿态入场。Google表示"原则上"同意合作。
一家因坚守底线而被驱逐,另一家带着几乎相同的底线被迎入。这不是政策逻辑,这是权力示范:重要的不是你画了什么线,而是你在被要求擦掉时是否服从。
这个故事的完整叙述将在第五篇中展开。但它在这里必须被提及,因为它构成了"史诗之怒"行动最深层的悖论之一:21世纪最大规模中东军事行动的发动国,在战争前24小时驱逐了自己性能最强的AI模型——因为这个模型坚持认为机器不应该被允许在没有人类批准的情况下杀人。
六、第一分钟的真实含义
让我们把镜头拉回2月28日凌晨1:15。
第一枚弹药落地的瞬间,新闻标题写的是"美以联合打击伊朗"。但如果你把前述所有细节拼在一起,你会发现这个标题遗漏了战争真正开始的时刻。
战争不是从爆炸开始的。
它从算法判断"外交不可行"的那一刻开始——那一刻,模型把阿曼斡旋方辛苦争取到的让步折算成一个"可信度评分",然后宣判这个评分不足以改变态势。
它从Maven系统把1000多个目标排成动态队列的那一刻开始——那一刻,每一个核设施、每一套防空系统、每一个导弹发射井都从"情报对象"变成了"数据条目",等待被"执行"。
它从Anthropic的Claude被拔出Palantir系统的那一刻开始——那一刻,最后一个坚持"机器不应自主决定杀伤"的声音从作战链路中消失。
它从以色列手机用户收到精准推送的避难指示的那一刻开始——那一刻,社会承受战争的模型被"优化"了,战争的心理门槛又降低了一格。
这就是"第一分钟优势"的真实含义:不是谁的飞机更隐身,不是谁的导弹更精准,而是谁能更快、更稳地把现实拼成一个"可执行版本"。AI不是这场战争的旁观者,也不仅仅是工具。它是拼图的人——它把碎片化的情报、矛盾的外交信号、复杂的军事约束、模糊的政治意愿拼成一幅清晰的、可操作的、不容置疑的图景。
而当这幅图景被拼好的那一刻,战争就已经在运行了。爆炸只是确认。
(未完待续:下一篇进入杀伤链最敏感的一段——目标清单如何被生成、被排序、被动态调整。当你不再"决定打谁"而是"执行队列",当高层定点清除变成模型输出的预测,"有意义的人类控制"还剩下什么?)

留下评论