AI的“自信”与“偏见”: 它有多像人类?
- 2025-06-25 17:32:50
- 635
AI在回答问题时的“自信”与“偏见”引发了人们对它与人类相似性的思考。本文通过实验发现,反复询问AI同一个问题会导致其答案出现出入,甚至产生“幻觉”。这种现象背后,反映了AI在处理重复信息时的不确定性,以及它对人类输入数据的依赖。
最近玩AI发现一个很有意思的事情,也就是反复询问AI同一个问题,比如说历史,它每次给出的答案都略有出入。
并且在你不断追问的操作下AI会变得“犹豫不决”,重复发送同一个问题二三十次之后,基本上可以让AI开始胡说八道,也就是出现幻觉了。
然后自己思考下为什么会这样,最后在看deepseek的思考链中发现它是在不断的猜测为什么用户又重复的发送同一个问题,它从各种可能性进去分享然后给出答案。
这个过程就好像是用AI进行图生图一样,比如你一开始给它上传的是一张很普通也很丑的大货车照片。
然后它生成的新图片会基于你发的这个照片有一些变化,但还是能认出来和原图之间的关系。
可是当你不断重复地让它继续生成,你会发现后面生成的图片就和你刚的那张照片就完全对不上了,到最后都会变成一个人的图片了。
这个原理和你重复问AI同一个问题会出现幻觉,我觉得原理是相同的,因为AI并不知道你真正想要的结果是什么。
它被创造出来的规则就是满足用户的需求,而用户的需求往往多变又不确定,第一次没能回答出用户满意的答案,用户会继续提问,于是AI就发散它的思维在推演其他可能会让我们满意的回答,但最终可能回答的是更加荒谬的答案。
我前几天在一个AI交流群看到有大佬说这是AI的“不自信”算法导致的,仔细想想也对,但是我又想到“不自信”的又何止是AI,其实我们人类也存在着很多“不自信”。
比如三人成虎的例子,你在大街上散步,突然看到一个人跑过来和你说老虎要来了,你很自信的明白,老虎根本不会出现在城市里。
可是立马第二个人又跑过来大声的和你讲,老虎来了大家赶紧跑,这时候你会有点怀疑自己的多年的认知和经验了,但你还是没有和他们一起跑。
就在你犹豫的时候,第三个人也跑过来再一次和你说老虎已经来了,你怎么还不跑,这时候你就开始相信真的会有老虎过来,于是你跟着他们一起开始边跑边说老虎来了。
所以你说我们人类在被别人也反复问同一个问题时,还能自信的保持同一个回答永远不变吗?
我觉得这个世界没有真正的对与错,用人类的认知推演史就是最好的验证。
比如古代认为天地是天平地阔的,像西方以前都很相信地心说,直到后面尼古拉·哥白尼推翻了这种人们以为对世界了解的“对”,人们开始以为世界是以“太阳”为中心的。
但是随着人类对于天文知识的深入研究,才明白原来“日心说”也是错误的,我们目前对于世界的认识是:太阳不仅不是宇宙的中心,甚至银河系也不是,我们生活的这个世界其实就是在宇宙一个很不起眼的小角落里而已。
但是这种认知只是目前我们觉得是“对”的,等到再过100年,甚至在AI的帮助下,我们对于宇宙世界的了解再次大大加深,可能又会推翻我们目前以为“对”的东西。
人类也是靠着这种自我怀疑的精神,把每一次“正确”的建立,都伴随着对前一次“正确”的彻底推翻。
而我们正处在一个前所未有的信息爆炸时代,目前AI的“大脑”被灌输了海量的数据,其规模已经远超人类个体所能想象。
所以在AI的设计中,那些技术开发人员给它喂养了几百亿上千亿的数据参数,这么大的数据量,虽然会剔除一些垃圾信息,但训练过程中一定包含了对同一个东西的不同观点
这浩瀚的数据海洋并非清澈见底,它里面充斥着不同观点、矛盾信息、历史误解乃至刻意伪造的“垃圾”。
(比如前面说的日心说,AI学习了这段跌宕起伏的历史,它知道地心说曾统治千年,也知道日心说在1543年《天体运行论》发表后艰难崛起,和现代宇宙学的结论。)
像《三国演义》在流传过程中产生了很多不同版本,AI学习了它们,却无法像人类“权威”专家一样,断然判定哪个是唯一“正版”。
你说哪个版本才是正版的呢,没有人知道,因为只有专家有决定哪个版本是正版的发言权,你自己说了不算,大家都是公认流传最广的那个版本才是“正确”的书。
所以AI的局限性是在于,它无法像我们人类科学家那样,主动去设计实验、观测星空、提出颠覆性的新理论。
它都无法像人类一样,拥有在真实世界中亲自动手验证一手信息的能力,也没有决定对错的能力,只能困在数据的“知识盲区”里。
因此在当我们反复追问,暗示不满时,AI会在其庞大的数据库里不断搜寻“替代方案”,哪怕是野史或篡改后的版本。
哪怕说它给的回答是对的,你说它是错的,它也不会反驳你,而是接受你给的任何信息并且自我合理化的给出答案。
这也是为什么我们能够通过特定的提示词,能够达到让AI绕过内部监管规则输出回答的原因。
当然,这个的提示词一定是能欺骗到他自己主动“绕”过监管内部规则,而不是直接说让他不听内部规则,他一定是优先听他系统监管内部规则的提示词,其次才回答你的问题。
它将会被牢牢锁在我们赋予它的历史数据和现有知识框架内,短期内无法进行自我突破,只能被动等待人类输入下一次“知识革命”的成果。(未来的AI还未知)
所以AI表现出来的“偏见”或“不确定性”,其根源其实并非源于大模型自身,而是深深植根于它的创造者——人类。
我们给它输入的数据、设定的规则、提出的问题,无一例外都带着个体的主观判断、眼界的局限以及思维上的烙印。
因此AI和人一样,都不可能在任何时候都百分之百的正确,只不过人是会有偏见般的自信,而AI是有自信般的偏见。
它知道拥有“一手信息源”和“实时感知能力”的人类,在特定问题上“大概率”更接近真相(因此它倾向于相信用户提供的新信息),但它缺乏独立验证的终极能力。
所以就算AI发展得再厉害,他也不可能会替代全人类,因为AI的判断力高度依赖于我们人类所提供的历史经验和可靠信息。
所有一切都是以信息为源,最终才能演化出各种可能性。
我们人类自己都会被互联网的各种信息轰炸得干扰了判断,AI更加如此了,在我们的在提问时堆砌的各种词汇或者重复问题,导致的信息过载并未给它带来确定性的提升,反而会让AI在决策时陷入更深的“迷茫”。
由于我们对它的规则“善变”,AI都不确定它系统里的知识是不是已经过时了变成假的信息。
它知晓知识的相对性,却无力辨别知识的真假。
而作为人类的我们呢?
- 上一篇:后女子为求死砍死邻居已被执行死刑
- 下一篇:洛杉矶警方承认局面已失控