声音的幽灵——当死者借AI"开口"
"我要去钓鱼了,爱你们":一场前所未有的法庭实验
2025年5月1日,亚利桑那州马里科帕县的一间法庭里,发生了美国司法史上从未有过的一幕。
被告Gabriel Horcasitas低着头站在法庭中央,等待过失杀人罪的量刑。检方建议9.5年监禁,辩方请求从宽,而法官Todd Lang正在听取受害者家属的陈述。
9封书面陈述,10位亲友当面发言。悲伤、愤怒、不解,情绪在法庭里回荡。然后,最后一位"发言者"出场了。
屏幕亮起。一个男人出现在镜头中,穿着迷彩服,背景是户外的树林。他开口说话,声音低沉而平静:
"我是AI重建的Chris Pelkey。"
法庭陷入静默。这个男人已经死了三年半。2021年11月13日,他在钱德勒市的一场路怒冲突中被Horcasitas枪杀,年仅37岁,留下三个孩子和未婚妻。
但此刻,他"回来"了。
AI Pelkey继续说:"Gabriel,我们本可以成为朋友。我理解愤怒,我理解冲动。但我想让你知道,我相信宽恕。"
视频结束时,AI Pelkey微笑着说:"我要去钓鱼了。爱你们。"
法官Lang沉默了几秒,然后说:"我喜欢那个AI。我觉得很真实。"
最终判决:10.5年监禁——比检方建议的还要多一年。
这是美国司法史上首例AI"复活"死者进行受害者陈述的案件。它打开了一扇充满争议的大门:当技术可以让死者"说话",我们是在给予他们声音,还是在篡改他们的遗志?
爱与伦理的拉锯:一个姐姐的选择
这段AI视频的创作者,是Pelkey的姐姐Stacey Wales。
Pelkey生前留下了4.5分钟的视频和一些照片,Stacey和她的丈夫Tim(一位科技企业家)以及朋友Scott,花了数周时间,用多个AI平台将这些素材"复活"——训练声音模型、生成面部动画、调整细节,直到AI Pelkey看起来、听起来都像弟弟本人。
但最关键的是脚本:AI Pelkey说的每一个字,都是Stacey写的。
这就是争议的核心。Stacey认为:"我了解Chris,我知道他会怎么想。他总是那个愿意给人第二次机会的人。"她相信自己在代弟弟发声。
但批评者质疑:你怎么知道他真的会宽恕? 死亡是终极的沉默,我们永远无法验证一个死人"会怎么想"。AI只是让Stacey的猜测披上了Pelkey的外壳,这是给死者嘴里塞话,而非让死者说话。
更复杂的是家庭内部的分歧。Stacey说,她的14岁侄子(Pelkey的儿子)曾告诉她:"我需要再见叔叔一次。"这个AI视频,是对孩子的安慰,还是二次伤害?
辩护律师Lamm毫不客气:"这是不真实的、尴尬的。你不能给死者嘴里塞话。"
但Stacey回应:"这是意见,不是证据。我有权表达我相信Chris会说什么。"
法官的矛盾:10.5年判决背后
法官Lang的那句"我喜欢那个AI"成为焦点。
在量刑听证会上,法官需要考虑受害者家属的陈述,但这些陈述通常不是"证据",而是情感影响的展示。其目的是让法官理解犯罪对家庭的伤害,从而在量刑时考虑这种痛苦。
传统的陈述是书面信件或当面发言,法官可以感受到家属的真实情绪。但AI视频是什么?
它不是Pelkey的真实情感,因为Pelkey已经死了。
它不是Stacey的直接情感,因为她躲在弟弟的"外壳"后面。
它是一个精心设计的情感投射——用最强大的情感武器(死者的音容)来影响判决。
Law评论指出,这段视频可能产生了超出其内容本身的情感冲击。当你听到"活人"的宽恕,和看到"死者"的宽恕,心理冲击完全不同。后者带有一种超现实的力量,仿佛是从另一个世界传来的声音。
最终,Lang判了10.5年——比检方的9.5年建议更重,比辩方请求的从宽处理更严厉。
这引发了一个悖论:AI Pelkey说"我相信宽恕",但法官却判得更重了。
可能的解释:
- Lang被Stacey(而非AI Pelkey)的痛苦打动,认为需要严惩以慰藉家属
- Lang确实考虑了宽恕,但也要考虑其他因素(如被告的危险性)
- Lang根本没受AI影响,多出的1年只是司法裁量的结果
但我们永远无法知道,因为法官不需要解释裁量权的每一个细节。而这正是问题所在:AI的影响无法量化,无法审查,无法申诉。
情感武器化:AI在法庭的潘多拉盒子
这个案例不是孤立的。它属于一个更大的趋势:AI正在被武器化为情感操控工具。
完美的煽动者
AI有一个人类无法比拟的优势:它可以精确计算情感冲击的最大化方式。
想象一下,如果Stacey不是手动写脚本,而是让AI分析:
- 法官Lang的过往判决模式
- 陪审团(如果有)的人口统计学特征
- 社会对路怒案件的情绪趋势
- Pelkey生前的语言习惯
然后,AI生成一段经过优化的陈述,专门设计来触发特定情绪反应——不是Pelkey会说什么,而是什么最能打动这个特定的法官。
这不是科幻。AI情感分析技术已经成熟,广告、政治宣传、客服话术,都在用它。为什么法庭不会?
对抗的升级
一旦一方使用AI陈述,另一方就会跟进。想象这样的场景:
检方:播放AI受害者的哭诉视频,音效凄厉,画面煽情
辩方:播放AI被告的忏悔视频,声音颤抖,眼含泪水
检方反击:播放AI受害者家属的"集体陈述",数十人同时出现,形成视觉冲击
辩方再反击:播放AI心理专家的"客观分析",用权威声音为被告开脱
法庭变成了情感战场,而陪审团和法官成为被算法操纵的目标。谁的AI更逼真,谁的情感设计更精妙,谁就赢得案件。
真相?正义?在情感的洪流中,它们变得越来越次要。
死者的尊严
还有一个更根本的问题:死者有没有不被"复活"的权利?
Pelkey生前从未说过"我宽恕未来杀死我的人"。他也没有授权任何人代他发表这样的声明。AI视频本质上是未经同意的身份盗用,只是盗用的对象恰好是自己的亲人。
这和传统的"家属代为陈述"不同。当Stacey以自己的身份说"我相信Chris会宽恕"时,她承担了这句话的责任,也暴露了这是她的解读。但当她让AI Pelkey说"我宽恕"时,她把责任转嫁给了一个无法反驳的虚拟形象。
死者无法说"不,我不宽恕"。他们失去了否定的权利。
隐性价值植入:不只是法庭,整个社会都在被操纵
法庭案例只是冰山一角。AI情感操控正在更广泛的领域渗透:
算法推荐的偏见
你刷短视频,看到"推荐"的剪辑点、配乐、滤镜。你以为这是帮助你创作,实际上是算法在驯化你的审美。
研究显示,社交媒体的推荐算法偏好:
- 极端情绪:愤怒、悲伤、震惊的内容获得更高推荐权重
- 冲突性:观点对立、言辞激烈的讨论被优先展示
- 身份标签:算法会自动识别并强化你的身份特征(性别、种族、政治倾向),推送符合"人设"的内容
于是,创作者为了流量,不知不觉地被引导向这些方向:
- 把温和的观点改得更尖锐
- 在标题里加入情绪词汇
- 选择最极端的案例作为论据
你以为是你在创作,实际上是算法通过"激励机制"在塑造你。
2024选举:AI偏见的集中爆发
2024年全球大选年,AI操纵达到了新高度:
TikTok波兰选举:民族主义候选人的内容被算法推荐的频率是中间派的5倍。
罗马尼亚总统选举:极右翼候选人的TikTok视频获得的推荐是其他候选人的3倍,导致一位名不见经传的候选人突然领先。选举结果最终被法院废除,成为首例因AI干预而作废的民主选举。
Twitter/X美国大选:算法被指倾向放大右翼媒体和政治家的内容,而压制左翼声音。
这不一定是平台有意为之。更可能的情况是:算法优化了"参与度",而极端内容天然有更高参与度,于是算法不知不觉成为了极端主义的扩音器。
慎终追远:中国视角下的数字永生
有趣的是,同样的AI"复活"技术,在中国语境下呈现出不同的伦理讨论。
漆女士的2万元:孝道的技术延伸?
2024年,重庆的漆女士花费2万元,使用AI"复活"了去世的母亲。她可以和AI母亲视频通话,倾诉日常,就像母亲还活着一样。
提供服务的公司称,已有2,000多人咨询,900+家庭付费。价格从几千到数万元不等,取决于"复活"的逼真程度。
这在中国引发的讨论,和西方截然不同:
西方主流观点:这是对死者的不尊重,是无法"放手"的病态表现,可能阻碍哀伤疗愈。
中国部分观点:这是"慎终追远"传统的现代延伸。既然我们可以供奉灵位、上香祭拜,为什么不能用AI让逝者"活在"我们心中?
问题在于,传统祭祀是象征性的——我们知道灵位不是真人,上香只是表达思念。但AI"复活"给人一种真实性错觉——它会回应你、安慰你,仿佛真的是母亲在说话。
这可能导致:
- 延迟哀伤:无法接受死亡的现实
- 情感依赖:沉迷于虚拟互动,逃避现实生活
- 记忆扭曲:AI母亲可能说出真实母亲从未说过的话,久而久之混淆记忆
钱学森的"穿越对话":边界在哪里?
2024年中关村论坛上,一个钱学森的AI数字人发表演讲,与现场观众"对话"。主办方称这是"向大师致敬"。
但质疑声也很强烈:
- 钱学森从未授权这样使用他的形象
- AI讲的内容是今人编写的,不是钱学森的真实思想
- 这是"借尸还魂",把钱学森当作传声筒
公众人物和私人的界限在哪里?逝去的科学家、艺术家、政治家,他们的音容笑貌是否应该成为公共资源,任由后人"复活"和使用?
还是说,死亡赋予了最终的隐私权——无论生前多么公开,死后都不应被技术侵犯?
代码词与人性:在AI时代保护最后的真实
面对这个情感可以被制造、身份可以被伪造的时代,我们该如何保护自己?
家庭代码词:老办法的新意义
一些安全专家建议,家庭成员之间设定"代码词"——只有真人知道的暗号,用来在紧急情况下验证身份。
比如:
- 父母打电话要钱,先问"你还记得我们的约定吗?"答对暗号才汇款
- 视频通话中,要求对方做一个特定动作(AI实时生成虽然厉害,但还做不到即时响应复杂指令)
- 提一个只有你们知道的私密回忆细节
这看似荒诞,但在AI声音、视频欺诈激增的今天,已经是现实防御手段。
信任降级:回到"零信任"原则
网络安全领域有个概念叫"零信任架构"(Zero Trust):不信任任何默认的安全状态,一切都需要验证。
这个原则需要扩展到日常生活:
- 不信任来电显示:号码可以伪造
- 不信任视频通话:实时深度伪造已经出现
- 不信任音频留言:声音克隆成本极低
- 不信任社交媒体身份:头像、资料都可能是AI
这不是鼓励偏执,而是理性的风险管理。在AI降低造假成本的时代,我们的默认信任阈值也必须相应提高。
人性的堡垒:那些AI还做不到的
但也不是一切都失守了。目前,AI还有一些难以跨越的边界:
即时互动的复杂性:虽然AI可以生成逼真视频,但实时对话中的随机性、上下文关联、情感微妙变化,仍然是难题。视频通话时,尝试快速切换话题、说一个冷笑话、提一个无关紧要的私密回忆——AI很难即时应对。
物理世界的验证:AI可以伪造视频,但无法瞬间改变物理现实。要求对方展示一个你们共同拥有的物品、去一个特定地点拍照,仍然有效。
情感的不可计算性:AI可以模拟情感,但无法真正"感受"。在深度对话中,真人会有意外的情绪波动、逻辑跳跃、沉默的意味——这些"不完美"反而是真实的标志。
此情可待成追忆:死者的声音属于谁?
回到Pelkey的案例,核心问题仍未解决:死者的声音属于谁?
是属于他们自己——即使他们已无法行使所有权?
是属于最亲近的家人——因为他们最有资格代为发声?
还是属于公共利益——在某些情况下(如法庭),为了正义可以使用?
法律尚未给出明确答案。技术已经跑在了前面。
但或许,我们应该从技术退一步,从情感退一步,问一个更根本的问题:
我们怀念一个人,怀念的是什么?
是那副可以被AI复制的音容笑貌?
还是那些无法被复制的独特时刻——他说的一句让你醍醐灌顶的话,他做的一个让你温暖至今的决定,他存在时给你的那种"有人懂我"的感觉?
AI可以复制形式,但无法复制灵魂。Pelkey的AI化身可以说"我宽恕",但那不是Pelkey的宽恕——那是Stacey对弟弟的理解,是她的爱,她的哀伤,她的愿望。
承认这一点,或许才是真正的尊重。
让死者安息,不是遗忘,而是记住他们曾真实地活过,真实地爱过,真实地离开过。
在这个可以无限复制的时代,真实的独一无二反而成为最珍贵的纪念。
"此情可待成追忆,只是当时已惘然。"——当技术能够重现任何声音,我们才明白,最珍贵的不是声音本身,而是说话的人曾真实地存在过。

留下评论