算法的偏见——被操纵的认知语境
春江水暖鸭先知:但鸭是AI训练的
2024年11月,波兰举行总统选举。在激烈的竞争中,一位民族主义候选人异军突起,在年轻选民中获得了意外的高支持率。事后分析发现了一个惊人的数据:
在TikTok平台上,这位候选人的内容被推荐的频率,是中间派候选人的5倍。
这不是买的广告,也不是付费推广,而是算法的自然选择。TikTok的推荐系统分析了用户行为,发现民族主义内容的"参与度"更高——更多点赞、评论、转发、完播率。于是,算法"聪明"地给更多人推送这类内容,因为这能提升平台的整体活跃度。
但算法不知道,它在做的是选举干预。它不知道"参与度"背后是愤怒和撕裂,它不知道极端观点获得更多关注是因为它们更具煽动性。算法只是一只被训练成只看数据的鸭子,它误以为"水暖"就是"春天来了"。
同样的故事,在2024年的罗马尼亚、美国、法国、德国反复上演。根据IPIE 2025年的报告,在80%以上举行选举的国家,都检测到了AI算法的系统性干预。而在90%的案例中,这种干预是通过内容推荐而非直接造假实现的。
换句话说:最可怕的操纵,不是告诉你假信息,而是决定让你看到什么、看不到什么。
罗马尼亚的警钟:首例被废除的选举
2024年罗马尼亚总统选举,写下了历史性的一页。
极右翼候选人Călin Georgescu原本是个边缘人物,民调支持率长期个位数。但在选举前几周,他的TikTok视频突然病毒式传播——不是因为内容特别精彩,而是因为算法给了他3倍于其他候选人的推荐权重。
在短短两周内,Georgescu从无名小卒变成第一轮选举的领先者。他的短视频用极具煽动性的语言攻击欧盟、北约、传统政党,而TikTok的年轻用户大量观看、转发,其中许多人甚至不知道他的具体政纲,只是被"反建制"的姿态吸引。
第一轮投票后,罗马尼亚宪法法院做出了前所未有的决定:废除选举结果,重新投票。
理由是:有证据显示外国势力通过大规模的TikTok机器人账号和算法操纵,不公正地影响了选举。虽然没有直接证据表明TikTok官方参与,但其算法的系统性偏好,客观上扭曲了进程。
这是人类历史上第一次因AI算法干预而作废的选举。
它告诉我们:在算法时代,人民的敌人不一定是统治者,可能只是一行代码。
指鹿为马AI版:算法如何重新定义"现实"
算法操纵不仅发生在选举,它渗透在我们的每一次点击、每一次滑动中,潜移默化地塑造着我们对世界的认知。
Facebook的性别歧视:91%的机械工广告只给男性看
2024年的一项研究发现,在Facebook上投放机械工程相关的招聘广告时,即使广告主没有设定任何性别限制,算法也会自动将91%的广告展示给男性用户。
为什么?因为算法"学习"了历史数据:过去点击机械工广告的主要是男性,所以算法认为"男性更可能对这类广告感兴趣",于是优先推送给男性。
但这形成了恶性循环:
- 历史上,社会偏见导致更多男性从事机械工作
- 算法学习到"机械工=男性"的模式
- 算法只给男性推送机械工广告
- 女性看不到这类机会,更难进入这个行业
- 历史偏见被算法固化并放大
算法不是中立的镜子,而是带着偏见的放大镜。它不仅反映现实,更在创造现实。
Twitter/X的右倾:算法的"无意识"政治立场
在2024年美国大选期间,多项独立研究发现,Twitter/X(当时已被马斯克收购)的推荐算法存在系统性偏见:
- 右翼媒体账号的推文获得1.5倍于左翼媒体的展示率
- 保守派政治家的内容被推荐到"为你推荐"栏的概率更高
- 批评特定候选人的推文更容易被降低可见度
这不一定是人为指令,更可能是参数调优的副产品。马斯克上任后,多次公开批评"觉醒文化"和"左翼审查",公司文化的变化可能影响了工程师调整算法时的"默认偏好"——比如,在"言论自由"和"内容审核"之间的权衡中,更倾向前者,而这种倾向在实际效果上有利于右翼内容(因为右翼更常触碰平台规则边界)。
算法没有意识形态,但训练算法的人有。调整参数的决策有。公司文化的氛围有。这些人类因素通过千百个微小决策,编织进算法的逻辑中,最终产生系统性的偏见。
短视频平台的"剪辑点推荐":无声的审美驯化
你在剪辑短视频,AI助手"贴心"地建议:
- "这里可以加个卡点,更有节奏感"
- "这个转场更符合平台流行趋势"
- "配上这段音乐,完播率会提升30%"
你以为这是在帮你提升质量,实际上是在驯化你的创作风格。
这些"建议"都基于算法对"高参与度内容"的分析。而高参与度内容往往具有某些共性:
- 节奏快:快速切换,不给观众思考时间
- 情绪强:夸张的表情、冲突的剧情、煽情的配乐
- 简单化:复杂观点简化为口号,细节省略,只保留刺激点
久而久之,整个平台的内容趋向同质化——不是因为创作者想这样,而是因为算法奖励这样。那些节奏慢、情绪克制、需要深入思考的内容,在推荐机制中逐渐边缘化。
你以为自己在创作,实际上是被算法塑造成它想要的内容生产者。
滥竽充数:AI假新闻工厂的工业化生产
算法不仅操纵推荐,还在催生假内容的规模化生产。
王某某的842账号帝国:日产7,000篇假新闻
前文提到的江西王某某案,值得更深入的分析。
他的商业模式是这样的:
- 用AI批量生成耸动标题(如"震惊!某市干部被曝…"、"紧急!这种水果有毒…")
- 用AI生成配图(通常是模糊的"现场照"、"受害者照")
- 用AI编造文章内容,模仿权威媒体语气
- 通过842个账号在各大平台发布,互相转发,制造"多处可查证"的假象
- 靠广告分成和流量补贴变现
高峰期,每天产出4,000-7,000篇。按每篇成本1元、收入10-20元计算,日收入可达4-14万元。
但更可怕的是信息污染的乘数效应:
- 这些假新闻被真实用户转发,进入可信度更高的社交圈
- 一些小型媒体为了抢时效,未经核实就转载(AI假新闻常用"据某知情人士透露"这样的模糊来源)
- 即使后来辟谣,假新闻已经嵌入了大量人的记忆
- 更糟的是,这些内容会被下一代AI模型爬取,成为训练数据,污染未来的AI输出
这就是AI内容的循环污染:AI生成假内容→假内容被传播和索引→新AI学习到假内容→新AI生成更多假内容。
济南水果摊:情绪操纵的精准实验
还记得那个"65岁老妇摆水果摊被罚16万"的假新闻吗?它不是偶然之作,而是精心设计的情绪实验。
长沙MCN公司透露,他们测试了不同版本:
- 版本A:"小贩被罚5千" → 转发率低,情绪不足
- 版本B:"老人被罚16万" → 转发率暴涨,愤怒情绪爆棚
- 版本C:"老人被罚16万,儿子自杀" → 转发率更高,但过于夸张,容易被识破
最终,版本B达到了最佳"情绪收益比"——足够愤怒引发传播,但不至于夸张到失去可信度。
配图也经过A/B测试:
- 年轻女性摆摊照 → 共鸣度低
- 中年男性摆摊照 → 共鸣度中等
- 老年女性,面容憔悴,蹲在地上 → 共鸣度最高
这不是新闻生产,而是情绪产品的研发。他们不关心真相,只关心什么组合能让最多人愤怒、转发、评论。
而这套方法论,正在被AI平台化、模板化,任何人花几千元就能买到"爆款假新闻生成器"。
四川10案:AI谣言的"地方化"生产
2024年7月,四川公安公布了10起AI造谣典型案例,涵盖:
- 云南滑坡(配AI生成的"救援现场")
- 新疆地震(AI生成的"受灾婴儿")
- 贵州弃婴(AI编造的"社会新闻")
- 凉山地震(AI生成的"倒塌建筑")
- 老人虐待(AI生成的"监控截图")
这些案例有个共同特点:地方性。造谣者专门针对某个地区、某个热点事件,快速生成"本地化"的假新闻,因为:
- 本地用户更容易相信"发生在身边"的事
- 本地媒体可能因为时效压力而误转
- 地方辟谣机制相对较弱,假新闻能存活更久
AI大大降低了"地方化造谣"的成本——以往,你要编一个某市的假新闻,至少要了解当地情况、找相关照片。现在,AI可以根据关键词,自动生成"符合当地特征"的内容:地名、方言、典型场景,一应俱全。
换句话说,AI让造谣实现了"私人定制"。
道高一尺魔高一丈:检测与对抗的军备竞赛
面对AI假信息的泛滥,检测技术也在进化。但这是一场永无止境的军备竞赛。
中国的375项专利:检测技术的追赶
自2018年以来,中国在深度伪造检测领域申请了375项专利,涵盖:
- 视觉分析:检测面部光影不一致、眼球反射异常、微表情不连贯
- 音频分析:识别AI合成声音的频谱特征、共振峰异常
- 语义分析:检测文本的逻辑矛盾、风格不一致
- 溯源技术:追踪内容的传播路径,找到首发源头
2024年9月,上海举办了首届深度伪造检测竞赛,2,200名参与者,26个国家,1,500+团队。冠军算法在测试集上达到了92%的准确率。
但测试集和真实世界是两回事。因为:
- 测试集里的假内容,生成方法已知,检测器可以"专门训练"
- 真实世界中,造假者会不断更新技术,规避检测
- 检测器的准确率越高,造假者就越有动力改进,形成"猫鼠游戏"
多智能体交叉验证:用AI对抗AI
新的思路是:不依赖单一检测器,而是用多个AI互相质疑。
DelphiAgent框架(2024-2025):
- 两个大语言模型协作
- 一个负责生成事实核查假设,另一个负责验证
- 迭代多轮,减少"幻觉"(AI自己编造事实)
GKMAD多智能体辩论(2025):
- 多个AI从不同角度分析同一条信息
- 自动引入外部知识库
- 投票决定可信度
Google DataGemma(2024.9):
- AI生成回答时,同步从Data Commons(公开数据库)检索
- 交叉引用,标注哪些是事实,哪些是推测
这种方法的优势在于:去中心化。不存在单一的"真相判定者",而是通过多方博弈逼近真实。
缺点是:成本高,速度慢。当假新闻已经病毒传播时,你的AI辩论团还在开会,为时已晚。
欲盖弥彰:当公司用AI掩盖AI的错误
最讽刺的案例,发生在2024年12月。
明尼苏达州的AI监管法案听证会上,斯坦福大学教授Jeff Hancock作为专家证人,提交了关于AI虚假信息风险的书面证词,收费$600/小时。
后来有人发现:证词中的多处引用都是AI幻觉——那些学术论文、数据、案例,根本不存在。
Hancock承认,他用ChatGPT-4o起草了证词,但"没仔细核查引用"。
这位研究虚假信息的专家,自己产出了虚假信息。
更荒诞的是,他的听证主题恰恰是"如何防止AI产生虚假信息"。
这不是个例,而是系统性问题:
- Air Canada聊天机器人案(2024):客服AI给乘客提供了错误的丧亲票价信息,法院判Air Canada负责
- 律师用ChatGPT写诉状,引用6篇不存在的判例,被法院制裁
- 学术期刊撤稿潮:2024年,超过150篇论文因"AI生成内容未标注"或"引用幻觉"被撤回
当AI渗透进知识生产的每个环节,错误也以前所未有的规模扩散。而最可怕的是,很多人根本没意识到自己在用AI,或者用了也不检查。
AI成了知识的"伪装者"——它让错误看起来像真理,让编造看起来像引用,让无知看起来像专业。
不破不立:重建信息生态的可能性
面对这场信息浩劫,我们不是没有办法,但需要系统性的重建,而非零星的修补。
平台责任:从"中立"到"问责"
社交媒体平台长期以来宣称自己是"中立的技术平台",不对用户内容负责。但这个辩护在AI时代站不住脚,因为:
算法即编辑:当平台决定推荐什么、压制什么,它已经在行使编辑权,就应该承担编辑责任。
可预见的危害:当平台明知其算法会放大极端内容、假信息,却不作为,这不是"中立",而是共谋。
2024年后,一些国家开始立法:
- 欧盟AI法案:要求高风险AI系统(包括推荐算法)必须通过透明度审查
- 中国《生成式AI管理办法》:平台需标注AI生成内容,建立申诉机制,对违规内容承担连带责任
但执行仍然困难,因为算法的黑箱性让监管难以穿透。
用户侧工具:多智能体的"私人盾牌"
未来,每个人的手机上可能都有一个"AI盾牌"——一个随时在后台运行的检测助手:
- 你看到一条新闻,它立刻检索原始来源,标注可信度
- 你收到一个语音消息,它分析是否为AI合成,给出警告
- 你刷短视频,它提醒你"过去一小时你看到的内容93%是愤怒情绪倾向,要不要切换到其他类型?"
这不是科幻,雏形已经出现:
- 浏览器插件可以标注页面上的AI生成内容
- 一些AI助手开始提供"事实核查"功能
- 未来,可能有专门的"反操纵AI"订阅服务
关键在于:给用户选择权。不是替用户决定什么是真什么是假,而是提供工具,让用户自己判断。
去伪存真:从"求真"到"求可验证"
但最根本的,是认知范式的转变。
在前AI时代,我们追求"真相"——找到那个客观、唯一的事实。但在AI可以无限生成逼真内容的时代,"真相"变得越来越难定义。
新的范式应该是:可验证性。
不再问"这是真的吗?",而是问:
- 这个信息可以追溯到可信来源吗?
- 它的制作过程透明吗?
- 它可以被独立验证吗?
这需要建立新的基础设施:
- 内容溯源:每一张图片、每一段视频,都附带生成/拍摄的元数据,加密签名,防篡改
- 分布式验证:不依赖单一权威,而是通过多方交叉确认
- 透明度标准:AI生成内容必须标注,工具和模型需要可审计
这不是技术问题,而是社会契约的重构。我们需要重新定义,在算法时代,什么样的信息生态是我们想要的,以及愿意为此付出什么代价。
"春江水暖鸭先知"——但如果鸭子被AI训练成只会游向饲料桶,它感知到的"暖",还是春天的讯息吗?在算法时代,我们需要做自己认知的主人,而非被驯化的鸭子。

留下评论