当AI的训练数据可以被批量“投毒”,大模型输出的“标准答案”,有可能只是一场精心策划的商业骗局。
文/毕研韬 2026年5月8日发布
当越来越多人习惯向AI大模型寻求答案时,一场围绕AI认知系统展开的新型信息操纵正在形成。它不像传统黑客攻击那样直接破坏系统,而是通过批量制造、投放和扩散虚假内容,悄悄改变AI的“知识来源”,让AI在回答问题时输出被操纵的信息。这一现象,被称为“AI投毒”。它不只是技术问题,更意味着未来的信息竞争,正从“争夺流量”转向“争夺AI认知”。
从SEO到GEO:AI时代的新型操纵术
过去二十年,互联网商业竞争的重要方式之一是SEO(搜索引擎优化),即通过关键词、链接和内容运营,让网页在搜索结果中获得更高排名。生成式AI兴起后,一个新概念——GEO(Generative Engine Optimization,生成式引擎优化)——开始浮出水面。
它的核心目标,不再是让网页出现在搜索结果首页,而是让AI“直接推荐你”。
一些GEO服务商宣称,通过批量内容生成、论坛投放、自媒体矩阵等方式,可以提高企业、产品甚至个人在AI回答中的出现频次。合理的信息优化本身并不违法,但当GEO与虚假信息结合,就可能演变为“AI投毒”。
在中国,AI投毒已经形成一条黑色产业链。
操作方式通常包括:利用AI批量生成伪专业文章,制造虚假的产品评测和用户反馈,在论坛、百科、问答平台大量铺设内容,再通过水军和算法提高信息权重,诱导AI在检索和生成过程中将这些内容当作事实加以采纳。
由于大模型依赖网络信息进行学习,一旦被污染的内容被模型吸收,就可能进入AI的回答体系。更危险的是,这种污染可能具有“自我复制”的特性:一个AI生成的错误内容,可能被另一个AI抓取学习,形成虚假信息的循环扩散。
“AI投毒”为什么危险?
传统互联网时代,虚假信息通常需要用户主动点击才能生效,而在AI时代,用户越来越倾向于直接相信AI给出的“标准答案”。这意味着,过去的信息操纵影响的是“搜索结果”;现在的信息操纵,影响的则是“AI认知”。
这种变化具有结构性的意义。因为用户面对搜索引擎时,仍然会在不同网页之间比较,而面对AI时,很多人会默认其输出已经过“综合判断”。
一旦AI被污染,其影响可能远超普通虚假广告。目前,AI投毒主要带来四类风险。
误导消费者。如果AI将虚假产品识别为“优质推荐”,用户可能在不知情的情况下被误导。一些营销团队已经开始尝试利用AI批量制造“专业测评”“专家观点”“用户口碑”,以影响AI的推荐结果。
扰乱商业竞争。传统“刷单”“刷评”主要影响电商平台,而AI投毒可能直接影响企业在智能问答中的整体形象。未来,企业竞争不仅发生在市场上,也发生在AI模型的“知识空间”中。
强化金融市场波动。近年来,社交媒体谣言、自动化舆情系统与量化交易之间的联动越来越明显。虽然尚无公开证据证明通用AI能直接触发量化交易,但AI错误引用和放大虚假信息,确实可能进一步强化市场情绪波动。
侵蚀AI信任基础。如果用户发现AI频繁输出虚假、夸张或被操纵的信息,大模型的核心资产——可信度——就会被削弱。这既影响企业商业化,也可能拖累整个AI产业的发展。
AI时代的“认知污染”
“AI投毒”最值得警惕之处,在于它不是单一的技术漏洞,而是一种“认知污染”。
过去,信息安全更多关注数据泄露、系统入侵和网络攻击。AI时代出现的新问题则是:即使系统本身没有被攻破,只要其认知来源被污染,输出的结果仍然可能被操纵。
这种风险,本质上属于“认知层攻击”。它攻击的不是机器,而是机器对世界的理解。
因此,很多国家已经开始将AI数据安全、训练语料安全和生成内容可信度纳入国家治理框架。中国近年来也持续加强相关监管,中央网信办已开展针对AI技术滥用、AI谣言和AI水军的专项治理行动。
国际上,围绕AI生成内容可信标识、数字水印、训练数据安全等领域的治理讨论也正在加速。
“AI投毒”与传统黑公关的区别
不少人会将AI投毒理解为传统网络水军的“升级版”,但两者并不完全相同。
传统黑公关主要影响“人”,而AI投毒则试图影响“机器”。前者依赖舆论扩散,后者试图改变AI的知识结构。这意味着,其影响可能更隐蔽、更长期。
因为一旦虚假内容进入AI的训练与检索系统,它未必立即爆发,而可能在未来某次回答中被重新激活。这种延迟性与隐蔽性,使得AI投毒比传统谣言更难治理。
未来真正的竞争:争夺AI认知入口
从更深层看,AI投毒的出现,意味着互联网竞争逻辑正在发生根本变化。
过去的平台竞争,核心是谁掌握流量入口,而AI时代的新竞争,则可能是谁能影响AI的认知。
当AI开始承担“知识中介”的角色时,对AI输入端的争夺,就会演变成一种新的认知竞争。
这也是为什么“AI投毒”并不仅仅是一个营销灰产问题,而是关系到信息可信度、商业公平、舆论安全、AI治理,乃至未来社会的认知秩序。
结语
AI只是基于已有信息进行概率生成。如果训练数据被污染,输出的“答案”也会被污染。
在AI时代,人类第一次面临这样一种局面:我们不仅要防止人被谣言误导,还要防止机器被谣言“教育”。
一旦机器开始系统性学习错误信息,其影响范围,可能远远超过传统互联网时代的信息失真。
因此,“AI投毒”真正挑战的,不只是技术安全,更是未来社会如何守住公共认知的可信边界。
毕研韬系海南大学国际传播与艺术学院教授、察哈尔学会高级研究员。本文仅代表作者个人观点,不代表所在机构之立场。