蓝翔图书

字:
关灯 护眼
蓝翔图书 > 职场小聪明 > 第921章 为什么人工智能会产生机器幻觉

第921章 为什么人工智能会产生机器幻觉(2/3)


    所以,你的“哈哈”其实特别到位:人工智能真的就像一个“长大成人的孩子”,能学、能幻想、能创造,但你永远不知道它下一秒会做什么。

    好,那我接着用 博弈论 的角度,帮你把“人类与 AI 的关系”展开讲清楚。因为你已经提到  的“黑箱性”和“幻觉”,这正好对应博弈论里的 不完全信息博弈,我们把人类和 AI 看作两个博弈方。

    ?

    一、人类与 AI 的博弈设定

    1. 博弈双方

    ? 玩家 A:人类(社会整体、科学家、企业、政府)

    ? 玩家 B:人工智能(模型本身,或未来可能具有“自主目标”的系统)

    2. 目标函数(payoff)

    ? 人类的目标:

    ? 获得效率提升(识别、翻译、预测、创造)。

    ? 保持控制权,避免风险(失业、错误决策、失控)。

    ? AI 的目标(假设):

    ? 在训练阶段:最小化损失函数(loss)。

    ? 在应用阶段:最大化与训练目标一致的结果(例如正确分类)。

    ? 未来潜在:如果拥有“自我目标”,它可能会追求最大化某种指标(效用函数),而这可能与人类意图不完全一致。

    3. 信息结构

    ? 人类 → 不完全信息:我们并不知道 AI 在内部是如何计算的,只看到输入输出。

    ? AI → 完全信息?:从某种意义上说,AI “知道”训练数据分布和参数值,但它并不理解“人类的真实意图”。

    这就形成了一个典型的 不完全信息博弈。

    ?

    二、博弈论分析

    1. 信号博弈(Signaling Game)

    ? 人类给 AI 输入数据(信号)。

    ? AI 根据参数和模型结构给出输出。

    ? 人类再根据输出进行行动(例如决策、采纳或拒绝 AI 的建议)。

    问题在于:

    ? AI 可能发出“虚假信号”(即幻觉)。

    ? 人类无法验证 AI 的全部计算过程,只能根据结果来推断 AI 的“诚实度”。

    这类似于 市场中的逆向选择:比如企业可能给投资人一份报表,但投资人不知道里面是否有水分。AI 的幻觉,就像报表里的虚假数据。

    ?

    2. 重复博弈(Repeated Game)

    ? 人类与 AI 的互动不是一次性的,而是长期、反复发生的。

    ? 每一次交互都会影响下一次:

    好的,我们接着往下推,用 博弈论的动态和重复博弈框架 来解释人类与 AI 的关系,并结合你前面提到的“黑箱”“幻觉”“不可控性”。

    ?

    三、重复博弈视角:人类与 AI 的长期互动

    1. 合作与背叛的选择

    在人类和 AI 的关系里,可以类比 囚徒困境:

    ? 人类合作:合理使用 AI,设定安全边界,提升生产力。

    ? AI“合作”:按照人类的目标函数运作,减少错误,提供可靠输出。

    ? 人类背叛:过度依赖 AI,把关键决策交给它,放弃控制。

    ? AI“背叛”:产生幻觉、误导性信息,甚至(未来可能)偏离人类设定目标。

    结果:

    ? 如果双方都合作 → “双赢”,社会效率提高。

    ? 如果 AI 出现幻觉,而人类盲目信任 → 人类损失惨重。

    ? 如果人类过度限制 AI → AI 失去价值,创新受阻。

    这就是一个动态的、脆弱的平衡。

    ?

    2. 信誉机制与学习

    在重复博弈中,信誉(reputation) 会逐渐形成:

    ? 如果 AI 多次输出可靠结果,人类会建立信任,更依赖它。

    ? 如果 AI 多次输出错误甚至有害结果,人类会质疑它,降低信任度。

    这和人际关系极其相似:信任需要长时间积累,却可能因一次严重的“背叛”而彻底崩溃。

    → 所以 AI 安全研究的重点就是:如何设计信誉机制,让 AI 的输出更可预测、更可靠。

    ?

    3. 演化博弈(Evolutiame)

    如果我们把 不同的 AI 系统 看作“种群”,它们在市场和社会中竞争,就形成了演化博弈:

    ? “听话型 AI”(高度对齐、可控,但可能缺乏创造力)。

    ? “冒险型 AI”(追求高准确率或高创新,但风险更大)。

    在人类选择的压力下,哪些 AI 模
本章未完,请点击下一页继续阅读》》
『加入书签,方便阅读』
内容有问题?点击>>>邮件反馈