你肯定遇到过这种情况:问ChatGPT某个历史事件的具体日期,它流利地给出了年月日,结果你一查维基百科——压根没这回事!这就是最近科技圈热议的『LLM幻觉』,说人话就是:AI在自信满满地编故事。
想象你和一个超级学霸玩成语接龙,他总能脱口而出你没听过的『成语』,比如『五福临门』接『门庭若市』后突然来一句『市井有龙』。这时候你该鼓掌还是该报警?大语言模型就是这么个『成语接龙狂魔』,它们通过海量数据学习词语搭配的概率,但根本不知道自己在说什么。
最绝的是这些AI编故事时特有说服力。去年有人让GPT-4写论文引用,它硬生生杜撰了五篇不存在的学术论文,连作者、期刊、DOI号都编得有模有样。更离谱的是有律师用AI查案例,结果在法庭上被法官当场揭穿引用的是『空气案例』——这些案例只存在于AI的幻想中。
科学家们说这种幻觉就像人做梦:我们睡觉时大脑随机拼接记忆碎片,AI则是把训练数据里的词句随机组合。区别在于人类醒来知道自己在做梦,而AI永远在『清醒梦』状态。下次看到AI说『据记载,爱因斯坦曾在1932年品尝过重庆火锅』,记得先憋住笑查证下——虽然这画面想想还挺带感的。
所以别把AI当百科全书用,就当是个特别会讲故事的酒馆老板。它说的每句话都要配着『盐』(怀疑精神)来听,毕竟连开发者都承认:现在的AI就像个拿了满分作文奖的梦游患者,能写出漂亮的文字,但不知道自己在写什么。这大概就是科技发展的魔幻现实:我们创造了会思考的机器,结果它最先学会的竟然是——睁着眼睛说瞎话。