
图源:Seedance生成
撰文 | 崔原豪
来源:知识分子
1993年,《纽约客》杂志刊登了一幅著名漫画:一只狗坐在电脑前,对另一只狗说,在互联网上,没人知道你是一条狗[1]。
这幅漫画精准地捕捉了早期互联网的精神内核:匿名性赋予每个人平等的发言权,身份、地位、外貌都被暂时悬置,唯有思想和文字在流动。

图源:纽约客截图
三十多年后的今天,这个美好的假设正在被一种新技术悄然瓦解。
2026年2月,苏黎世联邦理工学院与人工智能公司Anthropic联合发表了一篇论文,标题直白得令人不安:Large-scale online deanonymization with LLMs(基于大语言模型的大规模在线去匿名化)[2]。研究团队展示了一个令人震惊的事实:在AI面前,互联网匿名正在以肉眼可见的速度崩塌。
01 当人肉搜索成为流水线作业
让我们从一个假设开始。
假设你在某个技术论坛注册了一个小号,ID是代码诗人1995。你从未透露真实姓名,头像是一只猫,简介里只写着热爱开源,讨厌周一。你在论坛上讨论编程问题、吐槽公司制度、偶尔发表一些不想被同事看到的观点。你觉得很安全,毕竟这只是个马甲。
但现在,有一台机器正在阅读你所有的发言。

它注意到你喜欢用特定的标点符号组合是三个句号加空格;它发现你提到上周去杭州出差时顺便抱怨了西湖边的酒店太贵;它记得你说过研究生是在北邮读的,导师姓张。它把这些碎片拼接起来,然后在一个拥有数十亿用户数据的互联网上进行匹配。
90%的精度,68%的召回率,这是论文中报告的数字[2]。换句话说,这台机器有接近七成的概率,能从茫茫人海中把你代码诗人1995的真实身份找出来。
这不是科幻小说的情节。研究团队用三个真实场景验证了这一攻击的有效性:将Hacker News用户与LinkedIn档案匹配、跨Reddit不同社区识别同一用户、甚至仅凭一个用户在不同时间段的发言就将其分身关联起来。在每一项测试中,基于大语言模型的方法都碾压了传统算法,后者的成功率几乎为零。
02 从神话到科学:去匿名化的技术跃迁
要理解这场变革的意义,我们需要回溯历史。

2006年,Netflix举办了一场著名的算法竞赛:公开一亿条电影评分数据,悬赏100万美元给能最好地预测用户评分的团队。然而,研究者很快发现,即使数据经过匿名化处理,用户ID被随机替换,仍然可以通过交叉比对其他公开数据库(如IMDb)重新识别出具体个人。一位德克萨斯大学的研究生甚至成功识别出了Netflix数据集中包括她自己在内的多位用户[3]。
这就是传统去匿名化的困境:它依赖于结构化数据,需要精心设计的交叉比对,本质上是一种手工艺术。门槛高、规模小、成本昂贵,只有具备相当资源的机构才能实施。
但大语言模型改变了这一切。
论文中描述的攻击流程看似简单,却蕴含着深刻的范式转变。整个系统分为三个核心模块:
- 第一步是特征提取。传统方法需要人工定义什么是身份特征,比如姓名、地址、电话号码。但大语言模型可以直接阅读原始文本,自动发现那些人类难以形式化的线索。比如你习惯在句尾加上哈哈哈,你提到周末总是去五道口那家书店,你对某个技术框架有特定的称呼方式。这些看似琐碎的细节,在模型眼中构成了独特的身份指纹。
- 第二步是语义匹配。研究者使用了一种称为嵌入的技术[2]。简单来说,就是把每段文字转化为一个高维空间中的向量。语义相近的文字,在这个空间中距离也相近。当模型需要匹配两个不同平台上的用户时,它不需要逐字比对,而是计算这两个用户文字向量之间的距离。如果距离足够近,就有可能是同一个人。
- 第三步是推理验证。这是大语言模型最独特的能力。前两步可能产生大量候选匹配,其中有不少是误报。此时,模型会像一位经验丰富的侦探一样,仔细审视每一对候选对象,分析它们之间的相似点和差异点,最终给出是否匹配的判断。论文显示,加入这一推理步骤后,系统在99%精度下的召回率提升了一倍[2]。

关键在于,这一切都可以自动化、规模化地进行。不再需要人工设计特征,不再需要编写复杂的匹配规则,只需要一个经过训练的大语言模型和足够的算力。
03 匿名的价值:人类为什么需要马甲?
在讨论技术之前,我们必须先问一个问题:匿名重要吗?
答案是肯定的,而且比我们想象的更重要。
从古希腊的民主广场到启蒙时代的咖啡馆,从地下出版物到互联网论坛,匿名一直是保护言论自由的重要机制。它让异见者敢于发声,让弱势群体寻求帮助,让吹哨者揭露真相。没有匿名,苏格拉底可能不敢在雅典街头与人辩论;没有匿名,《联邦党人文集》的作者们无法坦诚地讨论新宪法的利弊;没有匿名,曾经的BBS匿名用户功能也不会成为许多人心中的树洞。

但匿名的意义不仅在于保护发言者,更在于保护言论本身。
社会心理学中有一个著名的去个体化理论:当个体身份被隐藏时,人们更容易表达真实的想法,而不是社会期望的答案[4]。这在某些情况下可能导致负面后果,如网络暴力,但在更多情况下,它促进了真诚的公共讨论。许多关于职场不公、学术腐败、性别歧视的重要揭露,最初都始于一个匿名的帖子。
如果AI让匿名成为奢望,我们失去的将不仅仅是“马甲”,我们失去的是一个让真话得以存活的生态。
04 威胁模型:谁会被影响?
论文的作者们没有回避技术的潜在滥用。
企业可以构建超精准的用户画像,实现超定向广告;攻击者可以大规模收集目标信息,发起高度个性化的社会工程攻击。在职场环境中,这可能成为内部斗争的工具;在社交场景中,这可能侵蚀个人的隐私底线。

但更大的威胁或许来自开盒成本的降低。
想象一下:你在微博上用小号吐槽了公司领导,以为没人知道。但你的同事,或者更糟,你的领导,只需要把你的发言与公司内部通讯记录进行比对,就有很大概率发现原来那个骂我的人就是你。这种横向去匿名化不需要复杂的组织,只需要一点技术知识和好奇心。
更微妙的是,这种技术可能改变我们对隐私的预期。
过去,我们认为只要我不说,别人就不会知道。但现在,即使你不主动透露,你的写作风格、你的表达方式、你的思维习惯,这些曾经被认为是无害的特征,都可能成为识别你的指纹。
隐私的边界正在从你说了什么扩展到你怎么说。
05我们能做什么?
面对这一挑战,个人、平台和政策制定者都需要行动。
对个人而言,首先需要意识到风格即身份。跨平台使用完全不同的写作风格、避免重复使用特定的短语或表情符号、谨慎关联真实身份与网络身份,这些措施可以提供一定程度的保护,尽管无法完全抵御有针对性的攻击。
对平台而言,数据最小化原则变得前所未有的重要。减少用户数据的存储时间、限制数据的交叉使用、引入风格混淆技术,如AI改写工具,这些措施可以增加攻击者的成本。
对政策制定者而言,需要重新思考隐私法律的适用范围。传统的匿名化标准,如k-匿名、l-多样性,在大语言模型时代可能不再足够[5]。我们需要新的技术标准和法律框架,来应对基于AI的推断性识别这一新兴威胁。
但最根本的问题或许是:当技术让隐私保护变得越来越困难时,我们是否需要重新定义隐私本身?
06结语:在透明的时代寻找阴影
古希腊神话中,普罗米修斯为人类盗来火种,却因此被缚于高加索山,日日受鹰啄肝之痛。技术的进步往往伴随着代价,而大语言模型带来的去匿名化能力,或许正是我们这个时代必须面对的普罗米修斯之火。
论文的作者们在伦理审查的框架下开展了这项研究,他们使用的数据集经过了脱敏处理,研究过程经过了ETH Zurich伦理委员会的批准[2]。但技术一旦公开,如何使用便不再由研究者控制。
这正是技术伦理的经典困境:揭示风险与提供攻击工具之间的微妙平衡。
我们不得不面对一个令人不安的事实:互联网匿名曾是一种实用的模糊性,不是绝对安全,而是攻击成本太高,所以相对安全。但AI正在大幅降低这一成本,使得针对普通人的去匿名化从不可能变为可能,从昂贵变为廉价。
也许,我们正在见证一个时代的终结。那个可以在网上自由更换马甲、尝试不同身份、说出不敢实名说出的话的时代,正在缓缓拉上帷幕。
但这不是故事的结局。历史告诉我们,每当旧有的保护机制失效,新的机制就会诞生。加密通信、去中心化网络、联邦学习,这些技术正在为用户提供新的隐私工具。更重要的是,社会对隐私价值的认识也在深化。当威胁变得具体,保护的动力就会增强。
在《1984》中,奥威尔描绘了一个没有隐私的恐怖世界[6]。但我们也记得,在《美丽新世界》中,赫胥黎警告的是另一种危险:人们可能会主动放弃隐私,换取便利和娱乐[7]。面对AI时代的去匿名化威胁,我们需要的不仅是技术防御,更是对隐私价值的坚守,不是因为我们要隐藏什么,而是因为我们需要一个让真话得以存活的空间。
毕竟,即使在最明亮的房间里,人也总需要一些阴影。
(本文作者崔原豪为北京邮电大学副研究员、中国计算机学会科学普及工作委员会主任助理。如无特别标注,本文插图均由Gemini Nano banana生成。)
参考文献:
[1] Steiner P. On the Internet, nobody knows you are a dog. The New Yorker, 1993.
[2] Lermen S, et al. Large-scale online deanonymization with LLMs. arXiv:2602.16800, 2025.
[3] Narayanan A, Shmatikov V. Robust De-anonymization of Large Sparse Datasets. IEEE Symposium on Security and Privacy, 2008: 111-125.
[4] Diener E. Deindividuation: The absence of self-awareness and self-regulation in group members. Advances in Experimental Social Psychology, 1980, 13: 209-242.
[5] Sweeney L. k-anonymity: A model for protecting privacy. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 2002, 10(5): 557-570.
[6] Orwell G. Nineteen Eighty-Four. Secker & Warburg, 1949.
[7] Huxley A. Brave New World. Chatto & Windus, 1932.