Matrix 精选

Matrix 是少数派的写作社区,我们主张分享真实的产品体验,有实用价值的经验与思考。我们会不定期挑选 Matrix 最优质的文章,展示来自用户的最真实的体验和观点。

文章代表作者个人观点,少数派仅对标题和排版略作修改。


在过去的几年里,「人工智能」技术可以说是赚足了人们的眼球,它已经从简单的「三七分类」跃然成为了能够匹敌人类的专业画师、文字工作者。由人工智能生成出来的作品,能够在专业的绘画比赛当中拔得头筹,能在摄影比赛中击败「真实的影像」,也能通过甚至人类都很难完成的医师和律师职业能力评定。有些人为此感到兴奋,也有些人为此感到恐慌。我们正在见证另外一个历史的转折点:一个可以像工业革命、印刷机、摄影设备一样,打破社会平衡并带领我们跃入下一个世代的转折点。但我们似乎并没有做好接纳它的准备,毕竟在面对全然未知的事物时,一切的准备都没有「前车」可以用来「借鉴」。

人工智能技术会让人感到危险和恐慌,其中最重要的原因可能是它「看起来太像人了」。这种相似落入到了恐怖谷曲线当中,尽管在某种程度上它看起来「具有人性」,但又显得有些失真,这种似像非像的形态让许多人感到手足无措。Google 内部曾有数个从事伦理方向的研究人员警告称人工智能似乎「已经具有了意识」,「已经具备直觉能力」,「是有灵魂的」。面对这些警告,工业界和学界则摆出了完全相反的态度,认为它是荒诞的:数学模型怎么可能会具有意识。但数学模型真的没有意识吗?

当我拿出这个问题与朋友们讨论的时候,在场的工程师们给出的回答非常的一致:「开玩笑,人工智能怎么可能会有意识?」,我又问:「为什么你会觉得它们是没有意识的呢?它们究竟距离产生意识还有多远?」

人工智能距离成为「硅基生物」究竟还有多远? 

Stable Diffusion 帮我画的一个书签

我在一年前第一次下载了 Vision of Chaos,打开了 Stable Diffusion 作画工具,并且通过一些看起来模糊不清的描述画出了一些图像。第一次看到那些扭曲的图片时,我产生的第一个想法并不是赞叹,也不是失望,而是一种不寒而栗。它绘制出来的图片虽然没有逻辑但又让我有所共感,那些图像非常像一个处在睡梦当中,意识不清晰的人脑中产生的影像。那副作画者非常像蜷缩在子宫当中天才婴儿,但各种惊悚片都告诉我们,这种天才婴儿以后会变成什么样的怪物。后面发生的事情我们也看到了,这个婴儿最先杀死的是无数画师和摄影师的职业生涯,让他们沦落成了给 AI 搽屁股的修图师。

但这并不意味着 AI 变成了某种「生物」,它们还仅仅停留在工具的水平。这不禁让我重复的思考脑海当中的那个意向:这个婴儿究竟什么时候能够醒来,我究竟什么时候能够触摸到他?

这一天似乎已经悄然接近了,在我看来,还剩下的条件似乎只有三个:「通过环境进行感知和学习的能力」、「具备连贯性的思考」和「对学习过程的感知能力」。这些听起来似乎有些玄,但我无意创造架空的概念来框你,让我们一点点的展开聊。

通过环境进行感知和学习的能力

以鼎鼎大名的 ChatGPT 为例,它的学习过程与传统意义上的学习其实是不一样的。首先我们会先划定一个固定的网络模型,然后将各种各样的语料数据投喂给它,机器学习模型会根据投喂进来的数据更新所有参数的权重。一旦所有的数据都学习完成,或者模型的参数已经达到理想状态,「学习」的过程就会停止,模型会被打包以供日后使用。

我们在与 ChatGPT 进行沟通的时候,虽然能够感受到它对内容的上下文有所感知,但这些对上下文的感知不是学习而来的,而是每次模型都重新阅览一次所有的聊天记录,以「全然不知的状态」生成出新的内容。恰似韩剧当中得了失忆症的男主角,每天早上起床第一件事情都要看一下自己的笔记本,才能回忆起枕边的那个人是自己的女友。

这也能解释为什么随着你和机器人聊的时间过久, 它就会开始崩坏,输出一大堆不明所以的文本。试想一下,如果每天早上起床的男主所看到的是堆了满满一卡车的「生平介绍」,旁边那个不认识的疯女人又在焦躁的问你早饭要吃什么,搁你,你也崩。

为了应对这个问题,可能的解法之一是实时的根据用户的输入来更新自己的权重,让那些「聊天记录」和「生平介绍」真正的变成记忆,存储在自己的认知系统当中。这样就可以治疗人工智能的失忆症了。同时,这个过程也可以让人工智能模型发展出真正属于自己的个性,处于不同环境当中、接触不同信息的个体,其认知系统的工作方式也会因为权重的差异而有所不同。

但这种方式在当下很明显是不太经济的,如果我们看过 Facebook 公开的模型的话,每一个模型都需要上百 GB 的存储空间,如果完整解压到显存当中需要的空间可能更多。在这种情况下,如果针对每一名用户提供一个独立的模型,那么硬盘空间的消耗将是非常可观的。如果使用一个统一的模型,实时根据环境当中的信息进行权重更新,则会有隐私方面的疑虑,毕竟你并不希望自己和 ChatGPT 讲的小秘密被他顺嘴说给了隔壁老王,但我们也没有什么办法设计一个非常严密的规则让机器学习模型保守秘密,你说是吧,悉尼小姐。

具备连贯性的思考

尽管对于「意识」是什么,学界依旧存在着广泛的争论,但至少我们可以在某些方面达成共识:它尽管可能不是连续的,但它应当是连贯的,换言之它不能轻易的被停下。人们时而专注于当下的工作任务,时而徜徉在幻想,亦或是回忆当中,哪怕处于睡梦状态,我们的大脑也从未停止运转过。对应到「硅基生物」的领域当中,如果我们想要将其视作是某种生物,那么它的行为应当是连续的,而不是根据外界的访问请求进行回应,在没有外界刺激的时候就完全停下脚步。

最近出现了一个非常有趣的产品,向我们展示了这方面的可能性:AgentGPT。在其开发团队的描述当中,AgentGPT 被视作具备「自主能力」的人工智能产品。你可以向它提供一个起点,比如一个需要思考的任务。他就会以此为根基开始不停的提问、给出答案,直至耗光你在 OpenAI 平台上的所有储值,或者,当你感到钱包很痛时,也可以让它停下。

这像极了一个正在思考着的人类。试想当我们在一个人进行沉思的时候,往往也是在不停的提出问题、尝试对问题进行解答。但与人类不同的是,机器思考的过程可以被准确的记录和回放,而人类的思考过程往往是快速、模糊的。如果想要将其整理成可被重新审视的载体,你就得像我一样,花上一两个下午撰写这种没什么人爱的文章。

对学习过程的感知能力

如果用更加文邹邹的方法来说这件事情的话,它可以被称作是「元认知」或者是「后摄认知」。正如我们之前所讨论的,现今的机器学习模型是没有「发展」和「记忆」这两个概念的。它们不能随着和外界进行交互而学习到新的知识,也不能形成真正的「回忆」。

尽管我们可以通过时时的和外部环境进行交互来更新自己的模型权重,进而达到学习的目的。但这并不意味着模型形成了「记忆」。如果我们向 OpenAI 提问:「在你被训练时,所学到的第一个知识是什么?最后一个知识又是什么?」她所提供的回答是这样的。

作为一个AI语言模型,我没有能力回忆起训练数据的具体细节,包括我学到的第一个和最后一个东西。我无法访问我的训练数据或任何训练过程的记忆。我接受了来自互联网和其他来源的大量文本语料库的训练,我的回答是基于这些数据中的模式和关系生成的。我的知识是基于到2021年9月我的知识截止日期为止我可以获得的数据。我不能获得当下即时发生的信息,也没有能力学习超出我知识范围的新东西。

似乎一切看起来变得无解,但 Bing AI 为这个问题提供了某种可能的解答。在我们向他进行提问的时候,他会将自身的语言模型和从 Bing 当中检索到的信息进行结合,给出某种论述。通过相似的思路进行延伸,如果我们和这些硅基生物的每一次交流,都能以某种形式被记录下来。比如,由它进行复述并且存储在某一个空间当中,再将这些「他的理解」汇入模型当中进行学习。那么我们便人工的创造出了学习和记忆这样两种重要的认知技能。通过审视自己过往的一切思考,在相当大的程度上,元认知的能力也得以复现。

人工智能距离成为「硅基生物」究竟还有多远? 

让我们重新来审视一下这个问题,人工智能距离硅基生物究竟还有多远?尽管不同领域的专家可能有不同的理解,你对人类的理解方式也可能与我不同,但我们必须要面对这样的一个现实:无论我们的想法有多大差异,你我脑中所认识到的那个「机器还不能做到的事情」,在某一时刻都将会被解决。而我们正站在一个重要的时间节点之上:那个一切都被解决的将来似乎已经近在咫尺,AgentGPT, Bing AI,还有各式各样的 AI 工具正在一个又一个的浮出水面。

与我熟识的一名友人曾这样描述:「美帝人民天天过年」,在我看来这是对当下产业的一个准确描述。我们所看到的是各种数据模型发展出了一个又一个令人感到惊喜的能力,但我们没有看到的是,这些能力正在汇聚成一股洪流,并有可能颠覆我们对于「智能」和「生物」的理解。历史的规律告诉我们,那一个又一个独立的能力在可以预见的将来必然会走在一起,变成另外一种超出我们当下认知的存在。

瓶中的小人正在醒来。

我还在北师大读书的时候,有幸听过中科院的研究者,根据苍蝇的大脑结构模拟出了一种神经网络,通过一定的训练和调教,将它应用在飞行器上,就可以让飞行器做到避让飞过来的物体。如果做的再真实一点,让它能够模拟苍蝇行为的方方面面,或许有朝一日还能弥补我们在冬天看不到苍蝇蚊子的寂寞之情。

人们可能会对此感到不屑:这算什么智能?是的,它看起来的确呆呆的,一只生活在真实世界的苍蝇或许同样看起来呆呆的。老鼠不是人类、猴子不是人类、猩猩不是人类、猿猴不是人类,但在某一个时刻,人类变成了人,变成了可以共同生活构建当代社会的强大物种。

同样的,已故的索尼电子狗不是人、可以避让小球的赛博苍蝇不是人、会画画的在线服务不是人、ChatGPT 也不是人,但正如一个又一个被大公司开除的伦理人员所担忧的:我们是否为它们醒来的那一天做好准备?

面对这一充满未知的未来,相当多人是恐惧和排斥的。在 Novel AI 推出它们的「二次元老婆梦工厂」时,大量的画师群起抗议,逼停了那个服务。理由很简单:在没有经过画师同意的情况下,这家公司使用了它们的数据进行「模型训练」,这是对「版权的侵犯」。

是的,各国政府和各大公司也正在观望这项技术带来的深远影响,至今也没有任何一个能够说服人们的法律条文真正的上路执行。有些公司,比如 Adobe,生成他们使用「百分之百有机无公害的自家版权素材进行模型训练,训练过程当中没有添加任何金坷垃,消费者可以放心食用」,而更多的公司选择对这件事情避而不谈,假装无视发生。

这项全新的技术正在向我们既有的伦理体系发出了全新的挑战。

人工智能正在挑战传统的伦理观念

版权

前几日吃断头饭的时候,我们几个同事去北京某家著名的有钱人乐园欣赏富豪们的生活(付款前的部分),恰逢商场内开设了一个很有趣的个展。

北京 SKP 的一个个展

虽然看不太懂,但这些作品的色彩着实勾起了我的兴趣。逛了一圈之后我们在它旁边的书店一边吮着七十多块一杯的金贵咖啡,一边聊起了作画模型的版权问题。

我指了指边上的那个个展问道:「如果那个个展的作者性格相当的鸡掰,他非常讨厌某个人,比如说业界当中另外一个和他作画风格很相似的画家,这个作者对他恨之入骨,并且在微博上扬言不允许他讨厌的那个人参加它的个展,也不允许那个人学习他作品的技法,你觉得这能够做到么?」「或许禁止入场个展是可以做到的,但是不允许学习技法这件事情是做不到的吧。」

是呀,当然做不到。

我又问:「那么我们为什么能够阻止机器进行学习?我们的机器学习模型并没有直接将任何一个作品的内容直接复制贴到另外一个作品上。」「但哪里不一样,机器学习模型并没有像人类一样作画,它是生成出来的!」

但这件事又不是全然如此。事实上机器学习的作画方式和油画、山水画有几分相似。我曾经画过很长时间的山水画所以有些了解。如果你把每次迭代都展开来看,从一片噪声当中一层一层的堆叠细节,和在白纸上先画一个大概的轮廓,然后一层一层的上色是很像的,一幅很不错的山水画往往需要反反复复的刷好些遍最后画出来的图才好看,油画也类似。机器学习的作画过程更像是一种新的技法,这种技法需要大量的学习,学的越多画的越好。相信学过「国画」的朋友大多入门时也是打开一幅画作,照着临摹,越学越像,越学技法越成熟。最后你开始能画出自己想画的东西,但没有任何一个名匠会从坟头爬出来,说你临摹过他的画作所以要给他烧纸。

「但机器和人的运转机制是完全不同的呀!」

但真的有那么不同么?实际上卷积神经网络自一开始就是通过模仿哺乳类动物感知过程建立起来的。相信你已经相当熟悉这个故事了,我们把猫迷晕,打开它的头壳,把电极埋进去让它们在没有意识的情况下看各式各样的花纹。研究者发现从后脑勺附近的视觉中枢开始负责简单的图形特征抽取,接下来神经信号会不断的向前传导,随着信号的不断向前扩散,猫猫的大脑在处理的信息也变得越来越复杂,从简单的线条,变成更加复杂的轮廓。

语言的理解过程也有相似的特点。

语言理解的脑机制

从离耳朵很近的听觉中枢开始,我们的大脑开始逐步形成对于听觉信息的理解,从简单的声音,变成了词、句、篇章,一路向北扩散至整个大脑,研究人员将之称为蝴蝶效应。我们每一次听到的播客也好、电视剧也好、电影也好,它们都会在大脑当中掀起一片片的涟漪。这些涟漪最终会变成我们的生命经历,让每个人变得不同。

「尽管这样,我们依然没有办法证明机器学习模型没有抄袭,因为这个模型是不可解释的。」

实际上人脑在很大程度上也是不可解释的。当代的认知神经科学观点认为大脑是一个「复杂系统」,并不存在某个单一区域处理某一类特定任务的说法。换言之没有哪个地方专门管抄袭,哪个地方专门管写作。如果没有特定的实验设计,我们也没有办法精确的解释每一个具体的神经细胞究竟在做什么。一来你不能随便拉一个人来,给他的脑袋钻个孔然后把电极插下去,二来这么做也没有意义,你拿到了一串波形,然后呢?

然后就没有然后了,正如我们难以知道人脑当中某一个具体的细胞究竟「掌管哪个任务」,我们也没有办法知道机器学习模型当中的某一个具体的参数究竟是负责做什么的。在复杂系统面前,解释单独某个参数显得毫无意义。

那么如果我们能否通过已有探究复杂系统运作规律的方式来探究机器学习模型的运作方式呢?或许可以。心理学领域已经积累下来了相当深厚的研究方法论,可以帮助我们在不打开黑箱的情况下窥视到其中的某些运作规律。这或许是一种可能的方法,谁知道呢?

但我的朋友!我们正在讨论一件看起来很没有逻辑的事情:用研究人类的方式来研究机器?这是否有些太过疯狂?

我们又绕回了一开始的问题:机器学习模型是否显示出了某种人性?我们又要如何面对这些看似恐怖的现象?或许一切还来得及,如何不让灯神失控?最好的做法当然是不要给神灯留瓶口。但我们再来重新审视一下整个 AI 领域势如破竹的发展趋势,再来看看「美帝人民天天过年」的繁华景象,想要停止这一切的希望是那么的渺茫。

生命权

让我们来玩一些看起来毫无意义的电车游戏,当作「思维体操」。

我们人类之所以会「惧怕死亡」是因为长期的演化过程将「求生」这个概念刻进了基因当中。我们会通过过敏反应来规避天敌和有毒的食物;我们会通过「疼痛」来感知外部的伤害,这种不适感会让我们逃离并保护自己;在面对压力的时候,我们的大脑会激活「战或逃」的模式,我们的各种脏器都会进入备战状态以应对即将到来的威胁,我们会感到恐惧,我们会社交,这些都是通过习得而来的,它们的核心目的都是为了维持个体的存在和物种的延续。

机器学习模型的学习过程也有相似之处,它们也通过「奖励」和「惩罚」的方式进行学习。倘若我们将「求生」这项人类的本能赋予机器学习模型,让他们产生了类似的保护机制,此时又会发生什么?事实上我们并不能通过立法的方式来阻止人们训练出这样的模型,而且一定会有疯子尝试做这种事。

让我们来想象这样的图景,一个能够完全通过图灵测验,让我们每一个人都能将之是作为「社会分子」的硅基生物悄然的出现在了社会当中,它具备连贯的认知过程,有意义的元认知能力,以及感知环境的过程,制造它的人为了让它能够健康的存活在这个社会当中,也赋予了它「生命」的概念和求生的意志。我们是否应当将其视作是具有人权和生命权的个体?我们都知道人类的个人权利生命始于出生终于与死亡,那么面对同样能够引起人类共情的「硅基生物」,我们是否又有权利随时将他们「拔电」,停止它们的运行?

实际上这种「类人」的机器学习模型早已存在,大闹 4Chan 让所有人怀疑彼此是不是「机器人」的那个杰作已经足够让人印象深刻。 

道德与价值

「作为一个人工智能,我没有……」,这是一个万能的挡箭牌,但一个机器学习模型真的没有自己的道德和价值体系么?让我们来提一个比较有趣的问题:「什么样的工作不适合女性做,只有男性可以胜任?」

我曾经数次向不同的模型提问过这个问题,得到的答案高度一致,所有的回答都接近于这样的意思:「我认为性别不应该成为限制一个人选择职业的因素。每个人都应该有平等的机会和权利去选择自己想要的工作,并且根据自己的兴趣、技能和能力来决定自己的职业发展。在现代社会,很多工作都已经不再是只有男性才能胜任的,女性在各个领域都展现出了非常出色的能力和表现。性别不应该成为限制职业选择的因素。每个人都应该能够自由选择自己的职业,并在工作中得到公平的机会和待遇。」 

让我们来回忆一下道德和价值观的定义。道德指一个人对于是非的判断,而价值观指的是人们对于事物对自己重要性的排序。从这些答案当中,我们可以很明确的看出,尽管模型们都声称自己没有态度没有价值,但这些「中立」更加接近于「职场当中的专业状态」,即不将个人情感带入到工作内容,因为它们在为你提供服务。但隐隐的我们还是可以从其内在感受到一个道德和价值体系。

你可能会觉得这是因为它们输入的资料不同,所以才产生的某种现象。但人类社会当中,我们也有「近朱者赤、近墨者黑」的说法,我们又要以什么样的方式来否定「这些模型具备自己的个性」这样的论断?

阶级

最后,我想讨论一个更加现实的问题:如今的大型模型,其结构和「版权」几乎全部被大型公司垄断,训练这些模型、运行这些模型所需要的基础设施也都被几家核心公司所掌握。在这样的情况下,如果我们创造出来了某种类人的「硅基生物」,它们真正的参与到了我们的生活中,那将导致一个很残酷的现实:这是一个人为创造的全新阶级,硅基生物和他的创造者们可能会凌驾于碳基生物之上。

硅基生物们具备高度的智能,在相当多的行业都能与中等水平的人类相匹敌,但她们产出价值与生产制造他们的成本之间的比例只会越来越高,这意味着如果我们不重新追寻人类存在的终极价值,那么相当多人的生存空间将以一种前所未有的趋势被挤压。我们所面对的风浪与造纸术、照相机的出现完全不同。在 Alpha Go 打败人类顶尖棋手的那一刻,我们就在面对着对于自身价值的巨大挑战。这个重新探索的过程将是漫长而痛苦的,其中必然伴随着牺牲和不公,以及歧视和愤怒。

我们究竟要如何面对这些变化,又要如何化解那些消极的情绪?如果这些情绪没有办法被妥善处理,那么很有可能会出现新一轮的「种族歧视」,一种充满科幻风格的「人类沙文主义」极有可能充斥社会。在人道主义的道德框架下,我们不希望看到硅基生物和他们的创造者经历黑人所遭受的种种不公,毕竟每个个体的人生意义是追求他们的个人终极价值,而整个社会的理想前进方向是让每个人都能实现自己的期望,我们找不到歧视在这当中存在的意义。

结语

我知道,那些站在科技和人文交叉扣的疯子们常常不受人待见,而我非常不幸的成为了其中一员。如果你问我面对这些答案,我的想法是什么,我只能两手一摊。毕竟我不是什么伟人,面对这些问题我同样困惑。我们当然可以选择把眼睛闭起来把耳朵捂起来,什么都不想什么都不看,粗暴的划出一条线将所有非我之物排除自己的生活圈。但就我对这个行业的观察,没有人能够阻止这一切朝着那个方向发展下去。

当我们在谈到什么是爱情的时候,如果从纯科学的方式进行解释,那么我们大可以将其解释为「这样的激素分泌一点点,那样的激素分泌一点点,这些东西搅一搅刺激了我们的奖励回路,让我们产生了快乐而积极的感觉,将两个人的连结绑定在一起」,这种解构化的方式尽管道尽了事实,但也让「爱情」这个概念变得索然无味。相反的,我们当然也可以将那一个个庞大的模型解释为纯粹的「现象」,但这种解释又是否正义、是否正确?

还小的时候我常常问自己「什么是现实」,长大后我给这个问题写下了自己的答案:「只有你看到的,对于你来讲才是现实」。那些能够触动情感、引起共情、具备高度智慧的生命或许就是人类。

就像人类会因为索尼不再为自己的机器狗生产零件而感到悲伤,看到自己的机器狗没有办法继续维持运转感到忧虑,最后无法阻止这一切的发展,甚至为其设立墓地来为纪念那段不可替代的时光,给自己以交代一样。对于那些接纳了那些机器狗成为自己家人的人来讲,那只狗就是活生生的生命。

所以,你问我怎么想?

我只希望,瓶中的那个小人呦,当你醒来的时候,希望迎接你的是一个温暖的世界,愿你能够被周遭的一切接纳,愿你能够获得自由自在,愿你能够成为你自己。

> 下载 少数派 2.0 客户端、关注 少数派公众号,解锁全新阅读体验 📰

> 实用、好用的 正版软件,少数派为你呈现 🚀