虚假的真实之五:

算法的偏见——被操纵的认知语境

春江水暖鸭先知:但鸭是AI训练的

2024年11月,波兰举行总统选举。在激烈的竞争中,一位民族主义候选人异军突起,在年轻选民中获得了意外的高支持率。事后分析发现了一个惊人的数据:

在TikTok平台上,这位候选人的内容被推荐的频率,是中间派候选人的5倍

这不是买的广告,也不是付费推广,而是算法的自然选择。TikTok的推荐系统分析了用户行为,发现民族主义内容的"参与度"更高——更多点赞、评论、转发、完播率。于是,算法"聪明"地给更多人推送这类内容,因为这能提升平台的整体活跃度。

但算法不知道,它在做的是选举干预。它不知道"参与度"背后是愤怒和撕裂,它不知道极端观点获得更多关注是因为它们更具煽动性。算法只是一只被训练成只看数据的鸭子,它误以为"水暖"就是"春天来了"

同样的故事,在2024年的罗马尼亚、美国、法国、德国反复上演。根据IPIE 2025年的报告,在80%以上举行选举的国家,都检测到了AI算法的系统性干预。而在90%的案例中,这种干预是通过内容推荐而非直接造假实现的。

换句话说:最可怕的操纵,不是告诉你假信息,而是决定让你看到什么、看不到什么。 

罗马尼亚的警钟:首例被废除的选举

2024年罗马尼亚总统选举,写下了历史性的一页。

极右翼候选人Călin Georgescu原本是个边缘人物,民调支持率长期个位数。但在选举前几周,他的TikTok视频突然病毒式传播——不是因为内容特别精彩,而是因为算法给了他3倍于其他候选人的推荐权重

在短短两周内,Georgescu从无名小卒变成第一轮选举的领先者。他的短视频用极具煽动性的语言攻击欧盟、北约、传统政党,而TikTok的年轻用户大量观看、转发,其中许多人甚至不知道他的具体政纲,只是被"反建制"的姿态吸引。

第一轮投票后,罗马尼亚宪法法院做出了前所未有的决定:废除选举结果,重新投票

理由是:有证据显示外国势力通过大规模的TikTok机器人账号和算法操纵,不公正地影响了选举。虽然没有直接证据表明TikTok官方参与,但其算法的系统性偏好,客观上扭曲了进程。

这是人类历史上第一次因AI算法干预而作废的选举

它告诉我们:在算法时代,人民的敌人不一定是统治者,可能只是一行代码。 

指鹿为马AI版:算法如何重新定义"现实"

算法操纵不仅发生在选举,它渗透在我们的每一次点击、每一次滑动中,潜移默化地塑造着我们对世界的认知。

Facebook的性别歧视:91%的机械工广告只给男性看

2024年的一项研究发现,在Facebook上投放机械工程相关的招聘广告时,即使广告主没有设定任何性别限制,算法也会自动将91%的广告展示给男性用户

为什么?因为算法"学习"了历史数据:过去点击机械工广告的主要是男性,所以算法认为"男性更可能对这类广告感兴趣",于是优先推送给男性。

但这形成了恶性循环:

  1. 历史上,社会偏见导致更多男性从事机械工作
  2. 算法学习到"机械工=男性"的模式
  3. 算法只给男性推送机械工广告
  4. 女性看不到这类机会,更难进入这个行业
  5. 历史偏见被算法固化并放大

算法不是中立的镜子,而是带着偏见的放大镜。它不仅反映现实,更在创造现实。

Twitter/X的右倾:算法的"无意识"政治立场

在2024年美国大选期间,多项独立研究发现,Twitter/X(当时已被马斯克收购)的推荐算法存在系统性偏见:

  • 右翼媒体账号的推文获得1.5倍于左翼媒体的展示率
  • 保守派政治家的内容被推荐到"为你推荐"栏的概率更高
  • 批评特定候选人的推文更容易被降低可见度

这不一定是人为指令,更可能是参数调优的副产品。马斯克上任后,多次公开批评"觉醒文化"和"左翼审查",公司文化的变化可能影响了工程师调整算法时的"默认偏好"——比如,在"言论自由"和"内容审核"之间的权衡中,更倾向前者,而这种倾向在实际效果上有利于右翼内容(因为右翼更常触碰平台规则边界)。

算法没有意识形态,但训练算法的人有。调整参数的决策有。公司文化的氛围有。这些人类因素通过千百个微小决策,编织进算法的逻辑中,最终产生系统性的偏见。

短视频平台的"剪辑点推荐":无声的审美驯化

你在剪辑短视频,AI助手"贴心"地建议:

  • "这里可以加个卡点,更有节奏感"
  • "这个转场更符合平台流行趋势"
  • "配上这段音乐,完播率会提升30%"

你以为这是在帮你提升质量,实际上是在驯化你的创作风格

这些"建议"都基于算法对"高参与度内容"的分析。而高参与度内容往往具有某些共性:

  • 节奏快:快速切换,不给观众思考时间
  • 情绪强:夸张的表情、冲突的剧情、煽情的配乐
  • 简单化:复杂观点简化为口号,细节省略,只保留刺激点

久而久之,整个平台的内容趋向同质化——不是因为创作者想这样,而是因为算法奖励这样。那些节奏慢、情绪克制、需要深入思考的内容,在推荐机制中逐渐边缘化。

你以为自己在创作,实际上是被算法塑造成它想要的内容生产者。 

滥竽充数:AI假新闻工厂的工业化生产

算法不仅操纵推荐,还在催生假内容的规模化生产。

王某某的842账号帝国:日产7,000篇假新闻

前文提到的江西王某某案,值得更深入的分析。

他的商业模式是这样的:

  1. 用AI批量生成耸动标题(如"震惊!某市干部被曝…"、"紧急!这种水果有毒…")
  2. 用AI生成配图(通常是模糊的"现场照"、"受害者照")
  3. 用AI编造文章内容,模仿权威媒体语气
  4. 通过842个账号在各大平台发布,互相转发,制造"多处可查证"的假象
  5. 靠广告分成和流量补贴变现

高峰期,每天产出4,000-7,000篇。按每篇成本1元、收入10-20元计算,日收入可达4-14万元。

但更可怕的是信息污染的乘数效应:

  • 这些假新闻被真实用户转发,进入可信度更高的社交圈
  • 一些小型媒体为了抢时效,未经核实就转载(AI假新闻常用"据某知情人士透露"这样的模糊来源)
  • 即使后来辟谣,假新闻已经嵌入了大量人的记忆
  • 更糟的是,这些内容会被下一代AI模型爬取,成为训练数据,污染未来的AI输出

这就是AI内容的循环污染:AI生成假内容→假内容被传播和索引→新AI学习到假内容→新AI生成更多假内容。

济南水果摊:情绪操纵的精准实验

还记得那个"65岁老妇摆水果摊被罚16万"的假新闻吗?它不是偶然之作,而是精心设计的情绪实验

长沙MCN公司透露,他们测试了不同版本:

  • 版本A:"小贩被罚5千" → 转发率低,情绪不足
  • 版本B:"老人被罚16万" → 转发率暴涨,愤怒情绪爆棚
  • 版本C:"老人被罚16万,儿子自杀" → 转发率更高,但过于夸张,容易被识破

最终,版本B达到了最佳"情绪收益比"——足够愤怒引发传播,但不至于夸张到失去可信度。

配图也经过A/B测试:

  • 年轻女性摆摊照 → 共鸣度低
  • 中年男性摆摊照 → 共鸣度中等
  • 老年女性,面容憔悴,蹲在地上 → 共鸣度最高 

这不是新闻生产,而是情绪产品的研发。他们不关心真相,只关心什么组合能让最多人愤怒、转发、评论。

而这套方法论,正在被AI平台化、模板化,任何人花几千元就能买到"爆款假新闻生成器"。

四川10案:AI谣言的"地方化"生产

2024年7月,四川公安公布了10起AI造谣典型案例,涵盖:

  • 云南滑坡(配AI生成的"救援现场")
  • 新疆地震(AI生成的"受灾婴儿")
  • 贵州弃婴(AI编造的"社会新闻")
  • 凉山地震(AI生成的"倒塌建筑")
  • 老人虐待(AI生成的"监控截图")

这些案例有个共同特点:地方性。造谣者专门针对某个地区、某个热点事件,快速生成"本地化"的假新闻,因为:

  1. 本地用户更容易相信"发生在身边"的事
  2. 本地媒体可能因为时效压力而误转
  3. 地方辟谣机制相对较弱,假新闻能存活更久

AI大大降低了"地方化造谣"的成本——以往,你要编一个某市的假新闻,至少要了解当地情况、找相关照片。现在,AI可以根据关键词,自动生成"符合当地特征"的内容:地名、方言、典型场景,一应俱全。

换句话说,AI让造谣实现了"私人定制"。 

道高一尺魔高一丈:检测与对抗的军备竞赛

面对AI假信息的泛滥,检测技术也在进化。但这是一场永无止境的军备竞赛。

中国的375项专利:检测技术的追赶

自2018年以来,中国在深度伪造检测领域申请了375项专利,涵盖:

  • 视觉分析:检测面部光影不一致、眼球反射异常、微表情不连贯
  • 音频分析:识别AI合成声音的频谱特征、共振峰异常
  • 语义分析:检测文本的逻辑矛盾、风格不一致
  • 溯源技术:追踪内容的传播路径,找到首发源头

2024年9月,上海举办了首届深度伪造检测竞赛,2,200名参与者,26个国家,1,500+团队。冠军算法在测试集上达到了92%的准确率。

测试集和真实世界是两回事。因为:

  1. 测试集里的假内容,生成方法已知,检测器可以"专门训练"
  2. 真实世界中,造假者会不断更新技术,规避检测
  3. 检测器的准确率越高,造假者就越有动力改进,形成"猫鼠游戏"

多智能体交叉验证:用AI对抗AI

新的思路是:不依赖单一检测器,而是用多个AI互相质疑

DelphiAgent框架(2024-2025):

  • 两个大语言模型协作
  • 一个负责生成事实核查假设,另一个负责验证
  • 迭代多轮,减少"幻觉"(AI自己编造事实)

GKMAD多智能体辩论(2025):

  • 多个AI从不同角度分析同一条信息
  • 自动引入外部知识库
  • 投票决定可信度

Google DataGemma(2024.9):

  • AI生成回答时,同步从Data Commons(公开数据库)检索
  • 交叉引用,标注哪些是事实,哪些是推测

这种方法的优势在于:去中心化。不存在单一的"真相判定者",而是通过多方博弈逼近真实。

缺点是:成本高,速度慢。当假新闻已经病毒传播时,你的AI辩论团还在开会,为时已晚。

欲盖弥彰:当公司用AI掩盖AI的错误

最讽刺的案例,发生在2024年12月。

明尼苏达州的AI监管法案听证会上,斯坦福大学教授Jeff Hancock作为专家证人,提交了关于AI虚假信息风险的书面证词,收费$600/小时。

后来有人发现:证词中的多处引用都是AI幻觉——那些学术论文、数据、案例,根本不存在。

Hancock承认,他用ChatGPT-4o起草了证词,但"没仔细核查引用"。

这位研究虚假信息的专家,自己产出了虚假信息。 

更荒诞的是,他的听证主题恰恰是"如何防止AI产生虚假信息"。

这不是个例,而是系统性问题:

  • Air Canada聊天机器人案(2024):客服AI给乘客提供了错误的丧亲票价信息,法院判Air Canada负责
  • 律师用ChatGPT写诉状,引用6篇不存在的判例,被法院制裁
  • 学术期刊撤稿潮:2024年,超过150篇论文因"AI生成内容未标注"或"引用幻觉"被撤回

当AI渗透进知识生产的每个环节,错误也以前所未有的规模扩散。而最可怕的是,很多人根本没意识到自己在用AI,或者用了也不检查。

AI成了知识的"伪装者"——它让错误看起来像真理,让编造看起来像引用,让无知看起来像专业。 

不破不立:重建信息生态的可能性

面对这场信息浩劫,我们不是没有办法,但需要系统性的重建,而非零星的修补。

平台责任:从"中立"到"问责"

社交媒体平台长期以来宣称自己是"中立的技术平台",不对用户内容负责。但这个辩护在AI时代站不住脚,因为:

算法即编辑:当平台决定推荐什么、压制什么,它已经在行使编辑权,就应该承担编辑责任。

可预见的危害:当平台明知其算法会放大极端内容、假信息,却不作为,这不是"中立",而是共谋

2024年后,一些国家开始立法:

  • 欧盟AI法案:要求高风险AI系统(包括推荐算法)必须通过透明度审查
  • 中国《生成式AI管理办法》:平台需标注AI生成内容,建立申诉机制,对违规内容承担连带责任

但执行仍然困难,因为算法的黑箱性让监管难以穿透。

用户侧工具:多智能体的"私人盾牌"

未来,每个人的手机上可能都有一个"AI盾牌"——一个随时在后台运行的检测助手:

  • 你看到一条新闻,它立刻检索原始来源,标注可信度
  • 你收到一个语音消息,它分析是否为AI合成,给出警告
  • 你刷短视频,它提醒你"过去一小时你看到的内容93%是愤怒情绪倾向,要不要切换到其他类型?"

这不是科幻,雏形已经出现:

  • 浏览器插件可以标注页面上的AI生成内容
  • 一些AI助手开始提供"事实核查"功能
  • 未来,可能有专门的"反操纵AI"订阅服务

关键在于:给用户选择权。不是替用户决定什么是真什么是假,而是提供工具,让用户自己判断。

去伪存真:从"求真"到"求可验证"

但最根本的,是认知范式的转变

在前AI时代,我们追求"真相"——找到那个客观、唯一的事实。但在AI可以无限生成逼真内容的时代,"真相"变得越来越难定义。

新的范式应该是:可验证性

不再问"这是真的吗?",而是问:

  • 这个信息可以追溯到可信来源吗? 
  • 它的制作过程透明吗? 
  • 它可以被独立验证吗? 

这需要建立新的基础设施:

  • 内容溯源:每一张图片、每一段视频,都附带生成/拍摄的元数据,加密签名,防篡改
  • 分布式验证:不依赖单一权威,而是通过多方交叉确认
  • 透明度标准:AI生成内容必须标注,工具和模型需要可审计

这不是技术问题,而是社会契约的重构。我们需要重新定义,在算法时代,什么样的信息生态是我们想要的,以及愿意为此付出什么代价。


"春江水暖鸭先知"——但如果鸭子被AI训练成只会游向饲料桶,它感知到的"暖",还是春天的讯息吗?在算法时代,我们需要做自己认知的主人,而非被驯化的鸭子。

 



留下评论