文 | 阑夕
虽然DeepSeek-R1确实好用,但它在爆火之后,成了人手一个的AI工具,也对中文互联网的信息环境造成了严重的污染情况,这是一个固然难以避免但也理应得到重视的问题。
最近一个星期以来,就我看到的刷屏文章,至少有三例都是DeepSeek-R1生成出来的、充满了事实错误的内容,却因其以假乱真的迷惑性,让很多朋友信以为真,情绪激动的分享传播。
第一例,是知乎的这条高赞回答:
即使在我指出来之后,依然有人不可置信的表示,看不出来其中的「AI味」,所谓的「AI味」,指的是DeepSeek-R1创作文本时特有的「极繁主义」,比如生造概念、堆叠名词、滥用修辞等等。
而这条知乎回答,或因提示词喂得好,或因后期润色得力,在很大程度上消除了它的「AI味」,但从表达结构上,经常和AI打交道的用户都能一眼看出痕迹,纯正的DeepSeek-R1风格,当然普通人确实难以识别。
不过我也不是直接得到这个结论的,在看到朋友分享这条回答时,我原本也和他一样,是带着对于国产动画电影崛起的兴奋全盘接受了如此言之有物的论证,直到一个致命的纰漏让我察觉到了不对劲。
作者说哪吒电影里的敖丙变身镜头在法国昂西动画节上轰动业界,问题是,法国是有一个昂西动画节,哪吒的电影也是送去参展过,但那是追光动画出品的「哪吒重生」,而不是饺子导演的「哪吒」……
而且因为审核原因,这部送展的「哪吒重生」宣传片实际上是一部品牌概念片,内容是在一个现代都市里的赛车动作演示,哪吒根本就没出现,更不存在敖丙的变身……
继续查证也能发现,关于「哪吒」的制片方给员工分成都房子、攻克水下流体特效之类的描述,全都是DeepSeek-R1为了完成这篇命题作文自己脑补的。
第二个例子,就更离谱了,离谱到我不太能把完整截图发在这里,因为有些胆子够粗的自媒体,已经在拿DeepSeek去写涉军涉政的东西了。
其中有一篇写军工打虎谭瑞松的选题,标题是《军工虎谭瑞松, 从“道德标兵”到“猎艳狂魔”,“国之重器”沦为私人金库》,原文现在已经被删了,应该是被被转得太广作者害怕了,但很多「金句」的截图还在到处传,什么直升机的设计图纸在暗网里开价200比特币出售、收受金条贿赂时要求熔成发动机叶片形状、某总师离职时留言这里不是造飞机的地方而是造孽的工厂等等,如果你能记得这些细节,就一定知道我说的是哪篇文章。
不好意思,这也全都是DeepSeek-R1自己编的。
为什么我能确信是DeepSeek-R1的手笔呢?为什么不能是ChatGPT、Claude、文心一言?因为DeepSeek-R1是当前唯一能用的免费推理模型,且对中文的支持度足够高,这本来是DeepSeek-R1的优势,只是没被用在正道上。
此时就需要补充一个推理模型的特点了,那就是推理模型的训练过程特别注重奖惩机制,通过思维链的暴露我们也能看出它通常都会想得缜密、生怕自己没有摸清用户意图,以致于经常到了「谄媚」的程度。
这种训练模式的好处在于,可以让推理模型拥有举一反三的能力,能够更加灵活和完善的去完成任务,但是相对的,为了完成任务,推理模型也会在「不自知」的情况下,同时表现出欺骗性,当用户要求它写一篇作文时,哪怕缺少论据,它也会为了不辜负用户的指令,去自行编造一些材料出来,以便于自圆其说。
这就是大模型行业至今仍在致力于解决的「幻觉」现象。
上图就是一个经典用例,用户为DeepSeek-R1设立了阿里估值逻辑改变的靶心,于是DeepSeek-R1就逼迫自己去对着靶心射箭——它不会也不能反驳用户,或是质疑阿里的估值逻辑到底变没变——于是就「情不得已」的编造出了可以用来证明用户观点的数据。
根据Vectara发布的大模型幻觉排行榜,DeepSeek-R1的幻觉率达到了14.3%,远高于Deepseek-V3的3.9%,也在所有主流模型里属于较差的一档。
按理来说,R1是比V3更新、更强大的模型版本,之所以反而表现得更加拉垮,还是因为推理模型比普通模型先天就更加具有「创造力」,其实在AI研究领域,幻觉本身并不是单纯的缺点,甚至可以说,幻觉就是科学家们希望在AI身上看到的所谓意识,只是我们还没有把AI调教得当,让它在该天马行空的时候自由创作,在该遵守事实的时候有理有据。
所以我的这篇文章也不是在说DeepSeek-R1有问题,而是滥用它来批量化生成真假难辨的信息、并海量投放到公网的这种行为,问题很大。
越是公共讨论聚集的地方,比如时政、历史、文化、娱乐等领域,越是重灾区,这和自媒体的商业模式有关,有流量就有收入,流量取决于内容的吸引力,同时内容又受到生产成本的限制,而当DeepSeek-R1这种降维打击的武器被交到了每一个人手里,失控就是不可避免的了。
第二个例子里的作者大概是察觉到流量太高也容易出事,已经会在新的文章里——依然都还是DeepSeek-R1写的——加上一条下面这样的声明,不过只能说聊胜于无,很少有人会注意到并理解这句话的意思——上面的内容有一半是我编的,但我不告诉你们是哪一半。
事实上作者也确实不知道DeepSeek-R1交稿的内容里哪些是真哪些是假,他可能会提供一些参考资料,以及开放全网搜索的权限,但就像我说的,推理模型的运作模式,决定了它不是简单的洗稿,而是会自行完善故事的骨架和细节,最后的结果就是真假参杂,迷惑性反而更大了。
第三个例子,是历史博主知北遊的豆瓣记录,简单来说,是有人拿虚构的历史材料,布局七天来钓他上钩,如果不是他本身具有很强的反诈意识,加上三次元有人脉关系进行证伪,他一定会继续沉迷在这个局里,这个局的破绽在于AI搞错了两个历史人物的死亡顺序,打破了他在发现新的史料上如获珍宝的兴奋感。
一直以来,文史圈都是AI污染的重灾区,因为有大量的文献材料还没有数字化,可用的网络资源有限,考据成本很高,但凡较真起来,都会陷入「造谣一张嘴、辟谣跑断腿」的困境。
就,真的很让人焦心,用AI解决自己的问题是一码事,将AI杜撰的信息混到公网里又是另一码事了,当在这些言之凿凿的内容成为互联网信息库的一部分之后,甚至又会被AI重新咀嚼回去训练,事实数据和生成数据之间的界限将会更加模糊,这绝对不是一件好事。
有人可能会问,在没有AI的时候,人类也会造谣,也会发到网上到处都是,怎么没见到你这么痛心疾首?
其一,「抛开剂量谈毒性都是耍流氓」,AI的工业化生产能力,和个体户的伏案写作流程,在效率上是天差地别的,实际上在我写这篇文章以前,搜索引擎、线上文库、各类网站上的AI填充情况就已经非常不堪了,在有了推理模型——精通于一本正经的胡说八道——之后,整个污染趋势会向深处蔓延,从相对次要的资料层触及创作上游的信源层,覆水难收;
其二,人类造谣起来是有局限性的,比如他不可能出现在一个自己没理由出现的场合,真要这么编造起来很容易露馅,但AI则会脸不红心不跳的直接生造,比如栩栩如生的细节,或是身临其境的描写,在说谎这件事情上,AI的主观恶意或许不及人类,但它的发挥能力,却是独一档的;
其三,AI内容的生产者一般都是营销号,而为内容背书的,则是传播者的信誉,比如大V博主上钩后的转发分享,通过这种扩散机制,实现从寄生到合理化的存在目标,才是最可怕的,人会爱惜羽毛,会知道信誉下滑的后果,但营销号不在乎,只要避开敏感话题,有太多的流量可以消费,尤其是在掌握了「创造」独家信息这个技术之后;
其四,AI的便利性已经把虚假信息的泛滥推到了生活的各个方向,有人拿着它推荐的菜单去点菜结果发现店里没这个菜,有人拿着旅游攻略发现当地根本没这个景点,经我实测它还会捏造不属于「山海经」的古典异兽。
我想说的是,AIGC是技术发展的未来,DeepSeek也是国产模型的翘楚,工具没有错,错的是滥用、恶用工具的行为,AI当然可以创造内容,但前提一定要是注明它由AI生成,不能鱼目混珠,放任它以一种不可辨识的方式成为互联网的原生信息,大模型厂商和内容平台也有义务把类似数字水印那种兜底方案同步推进起来,每迟一天,治理成本都会几何级的变得更高。