(来源:山上)
一个问题问八个 AI,最后还得翻回百科词条。
作者 I 王彬
封面 I ChatGPT 生成
随着大模型的不断普及,向 AI 提问已经成为越来越多人获取信息的首选方式。
但很快,一种新的烦恼开始出现。很多时候 AI 的回答看似言之凿凿,却往往只是在一本正经地胡说八道。互联网上充斥着各类 AI 生成的工整文章,真假信息混杂,令人难以辨别。
去年欧洲广播联盟和 BBC 的一项联合研究发现,主流 AI 助手在近一半的回复中都会扭曲事实,近三分之一的回答存在严重的来源错误。
世界经济论坛更是连续三年把“虚假和错误信息”排在全球短期风险的高位,其中人工智能的负面影响是所有风险排名中上升幅度最大的,从两年展望的第 30 位跃升至十年展望的第 5 位。
更不用说还有人主打向 AI 投毒。今年 315 晚会中,央视曝光了 AI 投毒的黑灰产业链,大量 GEO 服务商通过批量发布软文投喂大模型,灌输虚假信息误导用户。
这倒不是说我们要反对 AI。在诸如代码开发、文案写作乃至工业应用等场景中,AI 仍然是最强大的生产力工具。只是,AI 虽然极大降低信息获取的门槛,却无法自行判断真伪。
AI 越来越发达,真实反而成为当下社会的稀缺品。在这样一个泥沙俱下、真假难辨的 AI 信息海洋里,普通人究竟该去哪里寻找真实?
AI 很好用,但也会翻车
不可否认,AI 就是当下人们获取信息最重要的入口。
第 57 次《中国互联网络发展状况统计报告》显示,截至 2025 年 12 月,生成式人工智能用户规模达 6.02 亿人,较上年增长141.7%。回答问题仍然是 AI 最广泛的应用场景,占比高达 76%。
但硬币的另一面是,每一次 AI 技术的飞跃,似乎都在无意间放大了虚假信息的扩散能力。
伴随着底座模型的升级,AI 制造的虚假正变得越来越逼真。比如近期 GPT-Image-2 模型发布后,逼真的图像生成能力就导致各类虚假信息迅速泛滥,类似于“库克加入小米汽车”这类谣言甚至一度登上了微博热搜榜首。
如果说 GPT-Image-2 的虚假图片狂欢更多只是用户的玩梗,大家哈哈一笑也就过去了。那么当人们真正试图用 AI 来寻找答案时,这种真假难辨也就成了困扰。
哪怕拥有庞大搜索数据的科技巨头,也很难规避这些问题。谷歌将 AI 能力融入搜索场景后推出的“AI 概览”功能,本意是帮助人们更快地获取准确答案,但实际上 AI 概览却加重了虚假信息的传播。
研究机构 Oumi 发布报告指出,AI 概览存在严重的“无根据引用”问题,摘要所附的链接并不支持其给出的信息。来源不符比例从去年 10 月 Gemini 2 时期的 37%,大幅攀升到了今年 2 月 Gemini 3 时期的 56% 以上。
为什么 AI 会加重虚假信息的传播?这并不仅仅是因为 AI 固有的幻觉,更关键的原因在于,AI 彻底改变了信息的生产与传播链条。
以前,一条假消息还得有人去编、去包装,存在一定的专业门槛。但现在,AI 几秒钟就能生成一篇逻辑流畅、引经据典的回答。它太擅长生成了,以至于有时候为了给你一个答案,它会非常自信地把几个不相关的信息拼凑在一起。
更棘手的是,当这些海量的伪专业信息被投放到互联网上后,又会被其他的 AI 模型抓取、消化和引用,最终形成一个不断自我强化的污染循环。
这就带来了一个很现实的烦恼,屏幕上那些看起来头头是道的回答,你很难一眼看穿它到底是真才实学,还是 AI 在一本正经地胡说八道。为了确认一个信息,你可能可能还得再去搜一圈,交叉验证一番。
在 AI 能够分分钟生成海量答案的今天,我们或许比以往任何时候都需要一个更加真实、稳定且可校验的知识系统。它不仅要作为普通人核实真相的最后防线,也要为 AI 和整个互联网提供一个干净、可信的参考信源。