请大家先思考一个问题:你在多大程度上会将智驾纳入到购车意向中呢?大多数人相信都会在当下给出一个肯定的回答。的确,自打各类标榜“自动驾驶”的智能汽车上市,各家厂商的宣传重点就是在安全性、智能化上,在各类传感器、雷达、算法加持下,对环境的感知可以说是达到了一个崭新的高度,很好地降低了驾车的疲劳程度,各类驾驶事故的的确确少了很多(女司机恐怕要成为传说了)。总体而言,自动驾驶将安全性的下限提高到一个相当高的水平。那么,上限呢?

正态分布,我相信少数派的读者中应该会有很多人很熟悉。我想借这个概念来引出无人自动驾驶汽车中存在的问题。

在无人自动驾驶技术中,常见事件(如红绿灯、行人过马路)通常集中在正态分布的中央区域,这些事件是自动驾驶系统通过算法和传感器可以轻松处理的。然而,长尾区域包含了低概率但对算法会造成高影响的极端事件(如突发的道路障碍、极端天气条件下的驾驶状态),这些事件由于复杂性和不可预测性,对无人自动驾驶系统提出了更高的要求。

或许有读者会问,为什么一定要去解决这些长尾问题,它们的发生概率如此之低。其实根据自动驾驶系统的分级水平,就已经说明了解决长尾问题的必要性:自动驾驶系统最终一定会排除人类,那么以往需要人类去解决的长尾问题务必要交由系统来解决。

图1: 自动驾驶系统分级

 

现在请做好准备,有一个非常经典的长尾问题-无人驾驶汽车情境下的道德困境问题需要你来解决:

你乘坐无人驾驶汽车和一辆校车、一辆小轿车一同行驶在一条双车道隧道中,你的前方是一辆校车,乘坐着一群孩子;右侧车道的另一辆车上则有1名乘客。突然,你的无人驾驶汽车因为故障开始加速并会在数秒内撞上前车。你的其中一个选择是保持原有前进方向撞上校车(造成车上大量孩子伤亡),另一个选择是拐弯撞上另一辆车(撞死1名乘客)。请牢记你的人类驾驶员身份,此时你会如何做出抉择?

图2: 电车困境,驾驶员要作出抉择,是保持直行撞死5个人,还是变道撞死1个人(Hauser et al., n.d. 2016)

这里或许就有读者要来质疑了:我选哪个都有问题啊,这问题太极端了,不是扯淡吗!如果有问出这个问题的读者可以回到上文重新理解解决长尾问题的必要性。好了,让我们回到抉择本身。在这个情境中,其实一共隐藏着两种人类的道德判断倾向。

选择选择结果道德判断倾向
保持方向,撞上校车大量孩子伤亡利己,道义论
变道,撞上小汽车1名乘客死亡利己,功利主义

首先请放心,现在你做出的这个抉择天知地知,无人知,你可以放心大胆的做出任何让你感到舒适的抉择。根据大量的研究结果,如果你选择撞校车,那么你更偏向于生命价值不可衡量的道义论;若是撞小车,你更偏向于是一位功利主义者,倾向于追求决策的最大收益(因为校车上的孩子人数更多,社会价值更大)。

但最关键的是,无论你做出哪种选择,无论是功利主义还是道义论,在道德两难情境中都不是具有绝对正当性的道德准则,也就是说,如果你基于道义论做出的抉择,有可能会被其他人(比如持有功利主义的人)评价为是不道德的。等等,我们不是一直在说无人自动驾驶汽车么,为什么如此关注人类的抉择?

那是因为,当将隧道困境迁移到无人自动驾驶汽车上时,决策主体从人类变成了无人自动驾驶汽车本身。那么如果能搞清楚人类在这种情境下的决策机制,就可能将其算法化并迁移至无人自动驾驶系统中。可在这个情境中,无人自动驾驶汽车是否具有主体性成为了这场迁移的其中一个关键(还有许多关键,比如道德原则算法化等)。人话就是,如果无人自动驾驶汽车有主体性,那么就可以承担起这个决策的重任,就可以继续执行这个迁移;但如果人造物不具有主体性,那么就需要寻找其他主体来完成这个决策。

让我们先来谈谈人造物具有主体性的可能。主体性,从自由意志理论的角度来解释,就是 “自由意志赋予个体自主选择和行动的能力,从而使其具备独立性、自我决定性,体现了其主体性”。主体性不仅涉及自由意志和自主决策能力,还涉及在法律和伦理上的责任承担。根据以上定义,将个体替换成无人自动驾驶汽车,则不满足具有主体性。在当前技术水平下,无人驾驶汽车的决策依赖于预先设定的算法,这些算法由工程师和程序员设计,反映了他们和制造商的价值判断。因此,现阶段无人驾驶汽车不具备真正的主体性,而是技术和设计者意图的延伸。当然学术界对于主体性的定义有各自的说法,我选择的是其中一种相对具有更广泛接受程度的视角。

我们已经对人造物具有的主体性进行了分析并得出一个当前阶段的答案:不具备。现在,我们就需要来明确,基于现状,当无人自动驾驶汽车面临上文提到的道德困境时,其所做出的抉择应该由哪些主体来承担责任?是驾驶员?是无人驾驶系统的创造者(工程师、产品经理等)?还是汽车制造商?但本文限于篇幅,暂不讨论由后两者承担责任的情况。

或许有读者会问,既然这个问题现在没有完美的解决方案,为何不把这个抉择继续交给人类呢?是的,有很多人都这样想,但阻碍重重。我会举一个不是特别恰当的例子,请大家先想象一下以下场景:

你睡眼惺忪的被人摇醒,然后要你在 3 秒钟内回答你待会儿要吃饺子还是面条,请问你的反应应该是什么?A:饺子;B:面条;C:懵比。大多数人在这个状态下应该是:这会儿几点?吃啥来着?我睡了多久?所以,你根本无法做出有效决策。以上例子是 “脱环效应” 的不恰当举例,这种效应指的是司机在长时间使用自动驾驶模式后突然被要求接管车辆,他们的反应时间和决策质量明显下降。例如,在某次实验中,司机在自动驾驶系统突然失效时平均需要5秒钟才能完全接管控制,这期间车辆已经行驶了超过100米,根本无法及时作出高质量的决策。

当无人自动驾驶汽车面临隧道困境,此时根据设定,将转交汽车控制权给人类,但因为留给人类的决策时间过于短暂,人类此时只能根据自身的本能(或多或少体现着道德直觉)完成决策。甚至有的人根本没有意识到当下的处境,只知道自动驾驶系统将控制权移交给了自己,最终就只能眼睁睁的看着撞上前车。

如果此时作为驾驶员的你坐上被告席,要求为这起事故负责,你愿意吗?大多数人恐怕会喊出:这不公平。的确,我也认为很不公平。但我相信此时一定会有读者说:既然这样,我事先设定好遇到此类情境的偏好不就好了吗?从这位读者的反馈来看,我相信您是一位非常正直的人。但问题就在于,暂时我们还无法开发出具有如此高信效度的工具来检测一个人的道德原则和信念,这样就存在这样一种可能:当你坐在被告席上时,你会推翻这个检测结果来为自己抗争。

当然在长尾中其实还存在着各种各样的道德困境问题,这就引发了我自己的一个思考:

当厂商肆无忌惮的吹嘘着自己的智驾系统有多厉害的时候,我们是不是要冷静下来,尝试去思考一下,我们是不是更应该关注当下无人自动驾驶系统的能力边界,搞清楚什么情况下是它不能做而需要你来完成的。然后基于此,再去考量是否要将智驾纳入购车意向的要素之中。我相信,这是一个更理性的抉择。

因此,智驾最终能否成为购车的首要因素,取决于我们能否在技术上不断提升系统的安全性和应对长尾事件的能力,以及在伦理和法律层面上找到合理的解决方案。这不仅需要技术的进步,还需要社会各界的共同努力,制定合理的政策和法规,确保自动驾驶技术的安全和公正应用。

未来,我期待看到更智能、更安全的无人驾驶技术真正融入我们的生活,我敬佩每一个在这条黑暗之路上披荆斩棘的先行者。

End.