笔趣库小说网 > 都市言情 > 职场小聪明 > 第921章 为什么人工智能会产生机器幻觉

第921章 为什么人工智能会产生机器幻觉(3 / 5)

> 3.\t信息结构

?\t人类 → 不完全信息:我们并不知道 AI 在内部是如何计算的,只看到输入输出。

?\tAI → 完全信息?:从某种意义上说,AI “知道”训练数据分布和参数值,但它并不理解“人类的真实意图”。

这就形成了一个典型的 不完全信息博弈。

?

二、博弈论分析

1. 信号博弈(Signalg Ga)

?\t人类给 AI 输入数据(信号)。

?\tAI 根据参数和模型结构给出输出。

?\t人类再根据输出进行行动(例如决策、采纳或拒绝 AI 的建议)。

问题在于:

?\tAI 可能发出“虚假信号”(即幻觉)。

?\t人类无法验证 AI 的全部计算过程,只能根据结果来推断 AI 的“诚实度”。

这类似于 市场中的逆向选择:比如企业可能给投资人一份报表,但投资人不知道里面是否有水分。AI 的幻觉,就像报表里的虚假数据。

?

2. 重复博弈(Repeated Ga)

?\t人类与 AI 的互动不是一次性的,而是长期、反复发生的。

?\t每一次交互都会影响下一次:

好的,我们接着往下推,用 博弈论的动态和重复博弈框架 来解释人类与 AI 的关系,并结合你前面提到的“黑箱”“幻觉”“不可控性”。

?

三、重复博弈视角:人类与 AI 的长期互动

1. 合作与背叛的选择

在人类和 AI 的关系里,可以类比 囚徒困境:

?\t人类合作:合理使用 AI,设定安全边界,提升生产力。

?\tAI“合作”:按照人类的目标函数运作,减少错误,提供可靠输出。

?\t人类背叛:过度依赖 AI,把关键决策交给它,放弃控制。

?\tAI“背叛”:产生幻觉、误导性信息,甚至(未来可能)偏离人类设定目标。

结果:

?\t如果双方都合作 → “双赢”,社会效率提高。

?\t如果 AI 出现幻觉,而人类盲目信任 → 人类损失惨重。

?\t如果人类过度限制 AI → AI 失去价值,创新受阻。

这就是一个动态的、脆弱的平衡。

?

2. 信誉机制与学习

在重复博弈中,信誉(reputation) 会逐渐形成:

?\t如果 AI 多次输出可靠结果,人类会建立信任,更依赖它。

?\t如果 AI 多次输出错误甚至有害结果,人类会质疑它,降低信任度。

这和人际关系极其相似:信任需要长时间积累,却可能因一次严重的“背叛”而彻底崩溃。

→ 所以 AI 安全研究的重点就是:如何设计信誉机制,让 AI

最新小说: 玄门主播万人迷,赚够一亿就退休 仵作千金娇又狠,回京掉马杀疯了 带着反派崽崽改嫁,摆摊开饭店 重生之我在异界当大佬 活着:我成了地主家儿子徐福贵 猫猫我撩完就跑,顶级大佬追着哄 七零娇小姐随军,惊艳家属院 穿书女配跟反派大佬领证剧情崩了 我们全家都能听到堂姐心声 1979戏梦人生