囚徒困境
信息越唾手可得,验证信息的账单就越长。 在博弈论的经典模型“囚徒困境”中,两个被捕的囚徒面临沉默与背叛的选择。 规则很简单:都沉默,各判1年;都招供,各判5年;一个招供一个沉默,招供的当场释放,沉默的判10年。 假设两个囚徒都很理智,懂得计算概率与成本,那么谁都不会选择沉默——因为无论对方怎么做,你背叛永远比合作拿到的多,所以肯定选背叛。 经典的囚徒困境里,理性人永远互相背叛,结果双输。 但假如我们现在打个补丁:他们可以自己花钱,请一位“中间人”来担保对方的承诺。 于是剧情有了微妙变化。两人各自掏一笔钱,雇一位德高望重的律师,让他居中传话,并收取押金作为违约补偿。律师费、担保金、时间成本,这些额外的花销,就是为了促成“互不背叛”的合作而付出的代价。 如果这笔钱太高,他们索性认命,互相揭发;如果这笔钱恰好能承受,他们则可能联手沉默,各获轻判。 你看,困境不是没有解,只是解药要花钱。这笔为了让彼此敢于相信而砸下去的真金白银,我管它叫 “信任成本”。 它像一种隐形的税:看不见,但无处不在;你不一定意识到它的存在,却一直在为它付账。 把视线拉回当下。现在我们每天都在面对另一场囚徒困境,只是博弈的对象从嫌犯换成了人工智能。 你用大模型写一份行业报告,它信手拈来几组数据,还贴心地附上了出处。你有些兴奋,却又隐隐不安——它会不会又在“幻觉”?会不会把某篇论文张冠李戴,把虚构的新闻当成事实?这份材料你是直接用,还是再花半小时去溯源核实? 最终,你深吸一口气,打开三个不同的AI窗口:ChatGPT、Claude、Kimi,把同一个问题分别扔进去。然后像情报分析员一样对比答案,标记出入,甚至再切到传统搜索引擎里翻上几页,直到关键的几个数字和事实在多个源头得到印证,才敢放心粘贴。 这个过程就是典型的信任成本。为了对抗AI“错觉”(幻觉),我们不得不搞起“AI养鱼”——不单养一条,而是养一池,让它们彼此印证。一次性问答变成了多重验证,原本承诺的高效变成了新的劳动。你可能为几个工具同时付费,更别说头脑里反复纠结的时间:它给出的这个方案,到底能不能用? 我们以为买了AI,是在付费买效率;但为了这份效率不打水漂,又在额外付出一笔信任保险费。常常是效率没省下多少,焦虑倒多了几分。 其实不止是AI。囚徒困境的变体与AI的选择焦虑,不过是一个古老难题的新皮肤。 仔细看四周:跨境电商交易,为什么要有信用证和第三方担保?企业招聘,为什么要做背调和试用期?甚至私下托人办事,还要找个“靠谱的介绍人”攒个饭局。这些信用证、背调、那顿饭、那份人情,本质上都是信任成本。因为无法天然地相信对方的品质、能力和意图,我们只好先花钱、花时间去购买“可信的凭证”。 社会学家说,人类文明的演进,某种程度上就是一部不断把信任成本打下来的历史。血缘宗族是最初的小范围低成本信任;后来有了契约、法律,让陌生人之间也能快速建立低成本的合作预期;再后来是银行信用体系、互联网评价、第三方支付——每一个伟大基础设施的出现,都是在把当时高额的信任成本,往下压一个数量级。 而AI的“幻觉问题”,把信任成本重新推到了聚光灯下。获取信息的成本早已被技术削平,但判断信息可信度的成本,却突然暴增。你能够瞬间生成十页方案,但评估这十页方案里有没有埋雷,可能耗费你一整个下午。 这成了一种新的困境:信息越唾手可得,验证信息的账单就越长。 你也许会问,AI带来的信任成本有解吗?有,而且我们已经在路上。 首先是技术路径。可解释AI正在尝试让模型不再是一个黑箱,你可以追溯它得出结论的逻辑链条;检索增强生成(RAG)让模型在回答时明确引用知识库里的原文,像论文附上参考文献。每一次技术的进步,本质都是在降低“验证”的边际成本。 更深远的变化在人机关系的重构。今天我们面对AI“不信任”,不得不做交叉验证,这和当年早起电商年代,人们不敢在网上付钱,最后支付宝用“担保交易”造出一个制度性的信任容器,如出一辙。未来很可能出现专门的“AI验证AI”,或者基于可信协议的知识溯源网络。当一种新的信任机制长出来时,旧时代的高额成本就会被迅速遗忘。 不过,最根本的跃迁在于我们的预期。绝对的零信任成本,可能永不存在。 真实世界的确定性总有缝隙,AI的幻觉也许只是缝隙的新形式。但人类从未因此停止协作——我们只是学会了在更多“打问号”的场景里,用机制而非纯凭直觉去构建信任。 试想,每一次你愿意在多个AI模型之间来回比对,虽然付出了一笔小小的信任税,但这笔投入恰恰保护了决策质量。因此,你并没有退回“不用AI”的背叛式选择,而是选择了一种更有耐心的合作。 这种反复验证的过程,看起来低效而有些狼狈,却也悄然训练着我们与智能工具共舞的素养。它让你成为一个更审慎的决策者,也让AI在人类反馈中一点点被驯化得更加靠谱。