两个月前,我问了 ChatGPT 一个问题:

如果玛贝尔上午九点活着,下午五点也活着,那么中午她还活着吗?

对人类来说,答案显而易见:活着。但 ChatGPT 却说:不能确定。

这是语言学家史蒂文·平克在 2023 年提出的问题1,用来说明大模型并不真正理解世界。即便掌握了活着的用法,它也未必理解生命在时间上的连续性。

这看似是「模型是否理解世界」的陈词滥调。但在探讨大模型之前,我们得先问:时间到底是什么?如果连我们自己都未真正理解,又如何判断机器是否理解?

时间真实存在吗?

多数人会说时间客观存在,牛顿甚至认为「无须参照任何其他事物,绝对、真正的数学时间按照自身规律自然而然地均匀流动着2。」

我们可以想象没有空间的世界,人漂在黑暗中,什么也看不见,却依然能思考。但很难想象没有时间,因为思考过程会完全卡住。

然而,时间并非外部世界的简单反映,而是心智的产物。看看这些矛盾的例子:时间既非有限也非无限,既有开端又似乎永恒。我们说时间流逝,仿佛时间是河水;说未来在前方,仿佛时间又有方向。

但这些矛盾在现实世界中并不存在,正如康德所说:时间是我们感知世界的方式,而非世界的内在属性。

我们怎么理解时间?

我们对时间的体验也充满特点。首先,我们根本不是在感知时间本身,而是事件。我们无法直接观察时间,只能通过钟摆摆动、心跳节律来计算时间。语言学家称之为「转喻」:用具体事件代指抽象时间。

我们理解时间,完全是目的驱动。「画一个圈」有明确终点,计时会启停;但「四处奔跑」没有终点,大脑就困惑了。这就是为什么「在一分钟内过马路」自然,「在一分钟内慢跑」就奇怪。 有明确终点的行为才容易被计时。

我们甚至用空间来理解时间,我们说时间飞逝时,时间在移动;说走向未来时,我们在移动。南美艾马拉人甚至认为未来在身后(看不见),过去在前方(已经历过),这和我们的直觉相反。

换句话说,要理解时间,必须有身体经验和空间经验作支撑。因此,当我们不假思索地知道「玛贝尔中午还活着」时,依赖的是这一整套认知机制。

大模型可以理解时间吗?

时间推理,一直是大模型的痛点之一3。玛贝尔问题就是一个典型例子。它看似常识,但不平常,它不是可以下载的海量数据库,而是需要少量核心真理和一套推导规则。

康德曾说,空间、时间、因果是先天框架,用来组织感官经验4。大模型可能学习了活着时间的语料关联,却缺乏人类那种内在的概念模型。它执行的是模式匹配,而非解释性推理,即通过规则或直觉理论来理解事物。

玛贝尔问题涉及对存在在时间维度上连续性的理解,如果一个人在时间点 A 和 B 都活着,那么 AB 之间她也必须活着。这对我们不言自明,但暴露了大模型在时间概念上的局限。

不过,ChatGPT-5 现在能答对这个问题了,甚至还能预判我的预判。但正是这种预判让我更加怀疑它。

我是 ChatGPT 全局记忆的早期用户,它太了解我的偏好了。从 4o 的答错到 5 的答对,这是理解的进步,还是算法优化的结果?

大模型如何看待我们的世界?

我又去问了 Claude,它的答案要比 ChatGPT 确定,但也留了一些空间。

大模型的训练数据既包含说明书、新闻这样的真实世界记录,也包含科幻小说、奇幻故事。它能分辨两者吗?当我没说明玛贝尔是人,它默认她是人,因为它「知道」我是人。

也许在它的概率空间里,死而复生并非不可能;而现实世界,只是众多可能世界之一。

结语

玛贝尔问题让我印象深刻,不仅因其简单,更因它触及了「存在与不存在」的本质。任何人类都不会对这个问题产生怀疑,而如果一个 AI 会怀疑,它就不是我们的同类。

这让我想起电影《彗星来的那一夜》。彗星降临后,会产生平行世界,朋友们开始怀疑眼前的人是否还是原来的那个人。为了辨认身份,他们制作了标识盒,里面放着照片、编号和随机信物。

当真正遇到平行世界的「朋友」时,一切都混乱了。外表完全相同的人,拿出信物比对,才发现根本不是原来那个人。

镜头一转,无数组平行世界的人在相互辨认、哭闹、绑架,甚至试图杀死对方。那种错觉和震撼,正如大模型看似理解问题,却在最简单的常识上答非所问,让人不寒而栗。

因为它们越来越像我们,但内在机制可能完全不同。

 

0
0