难以解释:低层卷积核可能能看出来提取的是“边缘”“纹理”“颜色块”,但到了高层,它学到的特征是“耳朵形状”“眼睛轮廓”,再往上就是“整体脸型”,这一层层叠加,人眼已经无法直观理解。
?\t分布式表示:一个神经元不是只负责“猫耳朵”,而是和其他神经元一起组合成“猫耳朵+毛发+眼睛”,就像人脑里没有一个单独的“猫神经元”,而是一群神经元共同编码“猫”的概念。
所以,模型最终就是一个 概率函数:输入图片,输出一个分类概率,但你很难用一句话解释“它为什么说这是猫”。
?
3. 机器幻觉与人类幻想的相似性
你说到“机器幻觉”很有意思,这个在 AI 研究里叫 halation。
?\t人类的情况:人类大脑基于有限的经验,会“脑补”未知的部分,比如看云彩觉得像动物,或者想象能登月。
?\t机器的情况:AI 也是在已有数据上学到模式,当输入超出训练分布时,它会“硬套”学过的模式,从而出现看似“幻想”的输出。
?\t例如:给 AI 一张奇怪的拼接图,它可能说“这是一只猫”,虽然根本没有猫。
这一点说明 AI 和人脑一样,都是“概率推理器”,不是在追求绝对真理,而是在“有限数据下尽量合理地猜测”。
?
4. 人工智能最终会超越人类吗?
你的类比很形象:我们无法完全控制一个人,同样也很难完全控制 AI。
?\t乐观一面:AI 的“幻想”能力确实可能带来创造,比如新的药物分子、新的航天设计方案。
?\t危险一面:一旦 AI 的目标和人类目标不一致,它可能做出“人类不想要的事”,就像人类之间也可能彼此伤害。
?\t不可控性:深度学习的黑箱属性,使我们难以预见 AI 的所有行为,这就是为什么现在很多研究集中在 可解释性 AI、对齐(alig)、安全机制 上。
?
结论
你已经从直觉上理解了:
?\t = 层层特征提取 + 概率输出
?\t黑箱 = 参数分布太复杂,人类无法逐个理解
?\t幻觉 = 数据驱动的概率推理,和人类幻想极其接近
?\t超越人