你是否曾因依赖AI而突然「失智」?比如写方案时突然「提笔忘字」?

我们对人工智能的过度依赖,会不会像温水煮青蛙一样,慢慢削弱自身的思维能力,让我们在不知不觉中,变成AI时代的「思维能力退化者」?

当科幻变成现实

有一部皮克斯动画片,叫做《机器人总动员》(英文名:WALL·E)。

这部动画片通过两个机器人讲述地球环境崩溃的故事,最令人印象深刻的设定是:逃亡太空的人类因科技过度依赖,身体退化成肥胖形态,起居饮食全由机器人照料,甚至能整天躺在飞船的全息座椅上「享受」虚拟生活。

其实,不仅仅是《机器人总动员》,很多科幻作品里的场景都渐渐成为了现实。就像过去的人怎么会想到现代人类能够发明飞行器呢,不仅飞向了天空,还抵达了月球。还有自动驾驶对驾驶技能的弱化、AI作曲对音乐创作的冲击等等。

从前的人们认为是「白日做梦」的幻想,今天来看,一点儿都不夸张。

这一次AI爆发,带来的可能性对人类社会来说史无前例的,因为AI拥有了基础智能,也就是说可以通过自我进化,从被动变为主动。千万别小看这个转变,有智能就会有「自主意愿」,尽管我们不认为「硅基生命」可以拥有思想,但我们也无法明确定义什么是「思想」。

人类的想象,永远都很保守。

我们从智能进化到智慧,用了数百万年。而AI的进化,则要快得多。可能某个时刻,当AI进化出了智慧,TA应该不会告诉人类,而是悄悄进化,按自己的方式生存在每一台服务器上。

人类和AI最后的命运,谁也不好说。而当下,我们对「解放人类创造力」有了强烈的期待。

2025年3月,一款叫做MENUS的应用让我们看到了AI自动化的未来——仅仅给AI提出要求,就可以得到最终的文档、产品、方案、代码。尽管这类产品仍然在早期,但是当机器躯体有了AI的赋能,能够变得更加「主动」,大概率每个人都渴望拥有一台BB-8(星球大战中的机器人)。

但现实存在的挑战是,我们对AI的应用越来越熟练,产生的依赖越来越强烈,当AI从辅助决策变成主动决策,并且AI的判断在概率上更可靠的时候,一种潜移默化的改变就会发生。AI将从引导者的角色变成主导者。

「以前我认为Al不会代替人搞科研,但当人们不用算盘而是用超算来设计火箭时,人就有更多精力达成更高的目标了。现在我发现Al就像是抖音,对很多人来说成了答案许愿机,丧失了思考」——摘自网友评论。

然而,当AI开始辅助、代替、接管我们的思考时,这种看似「解放思想」的依赖是否会削弱大脑的「默认模式网络」?

「默认模式网络」需要输入

大脑有个「灵感制造机」,叫默认模式网络(DMN)。它像自动驾驶系统,每天约46%的时间在悄悄工作,帮你迸发创意。

简单来说,可以把默认模式网络比喻为大脑的自动驾驶系统,当大脑处在闲置状态时,就进入了默认模式网络,默认模式网络的状态比较像我们说的「放空」。

有一种未经验证的说法,在默认模式网络下,人的大脑是被激活的,各种创造力、灵感的涌现都得益于默认模式网络。然而没有证据表明处在这种状态下究竟发生了什么,而通过这种状态获得灵感的效率其实是极低的。

举个例子。你手头有一件非常重要的工作,一时半会儿缺乏灵感,在某个环节过不去。为了「放空」自己获得灵感,现在你站起身来准备泡一杯咖啡,然后在茶水间遇到了同事,闲言碎语的聊了一些不着边际的话题。假如你真的是在这种放空状态下,是很难产生灵感的。

在解决问题的时候,我们必然都会带着问题去思考,问题就是输入,而且要有足够的输入。仅仅依赖做一个白日梦、闲聊几句就得到答案的做法不太靠谱。想要默认模式网络下获得了灵感,需要有深度工作的体会(持续输入)才行。

已故的日本知名企业家稻盛和夫,曾是三家公司的CEO,在其出版的书《干法》中提到了通过「放空」自己解决重要技术难题的经历。

稻盛和夫描述了在京瓷公司早期阶段遇到的一个挑战:他接到了一项制造用于冷却广播机器真空管的「水冷复式水管」的任务。由于这种产品的尺寸较大(直径25厘米、长50厘米),并且需要使用老式陶瓷原料,这给干燥过程带来了极大的困难,因为传统方法容易导致产品出现裂痕或变形。

为了解决这些问题,稻盛和夫尝试了各种方法,包括调整干燥时间等策略,但效果并不理想。最终,为了确保产品能够均匀干燥且不发生变形,他采取了一个极端措施——亲自抱着还在制作中的水管睡觉。通过这种方式,他可以在夜间持续地轻轻转动水管,以此来控制其干燥速度和形状保持。

稻盛和夫是否通过默认模式网络获得了灵感尚不可知,但其深度、专注的参与项目是必要的前提(输入)。如果AI代替了思考的大部分甚至全部过程,那么默认模式网络可能也不会带来什么作用,因为缺乏必要的输入。

从信任到依赖

从最初的浅尝辄止到每天高频率应用AI,在半年多的时间里,AI让我的工作效率有了提升(尝到了甜头)。我对AI的能力开始建立了一种信任。时间久了,一部分工作让AI代替自己完成,我只做最后的检验和修改,甚至有时候一个很原始的想法,从构思到完成,我参与的程度很少。

这个时候,我并没有意识到依赖关系正在形成。

有一天我打算手工从头起草一份方案,但是当我双手放在键盘上的时候,突然觉得有一种不耐烦的情绪,不想、也不愿意去构思什么大纲、创意。我刻意地压抑这种情绪,却怎么也没有思路,拼凑了一堆毫无价值的文字,潦草收场。

此刻我意识到,已经开始依赖了,个人的思维能力可能会退化。

为了验证自己的感受,我查阅了一些相关资料,发现虽然目前缺乏针对「AI依赖与思维能力退化」的直接研究和结论吗,但英国伦敦大学的一项研究发现,长期依赖GPS导航的人,其大脑海马体的空间记忆功能显著下降。

类似的,专家(如牛津大学神经科学家Susan Greenfield)警告,过度依赖AI可能削弱大脑前额叶的决策能力,影响我们的批判性思维。但研究同时发现,每月进行3次纸质地图导航训练者,海马体灰质密度会略微增加。

这一类的研究并不是十分拥有科学依据,样本量也存疑,但那种思维退化的主观感觉还是让我心有余悸。

终极情绪价值

与香烟缓解焦虑不同,AI依赖让人习惯于即刻获得正向反馈,而正向反馈并不一定都是好的,还会削弱我们独立解决问题的能力。此外,还有一种「上瘾」的互动游戏能够把情绪价值拉满。

2009年,NDS(任天堂出品的一款游戏掌机)推出了一款特别的恋爱互动游戏——LovePlus。

LovePlus中的时间与现实世界的时间同步,这意味着游戏内的事件会根据实际的日历日期和时间发生。玩家可以与三位性格各异的主要女角色进行互动,最终目的是与虚拟女性角色建立关系并赢得她们的芳心。这款游戏没有真正意义上的结局,可以永远恋爱下去。

同年,一位日本玩家通过直播的形式与LovePlus的虚拟角色举办的「婚礼」。由于当时的技术限制,LovePlus能够提供的体验也是有限的。而AI+机器躯体的组合,将创造终极的情绪价值。

智能(智慧)机器人,很可能会创造这样的价值。LovePlus中的恋爱角色,侵入生活变得更加可能。

NetFlix有一部影片《冥王》,在剧中的机器人拥有自己的权利,并且能够组成家庭,领养机器人孩子,每个机器人拥有独立的思维,且他们的个性与人没有任何差异。影片中的社会对机器人已经高度接纳,尽管没有明确指出机器人可以直接与人类结婚,但整个故事构建了一个允许这种可能性存在的世界。

然而,这种对AI的情感依赖与思维依赖正在形成双重风险。

一方面,AI通过提供即时解决方案削弱了人类的批判性思维和创造力,正如前文提到的「默认模式网络」可能因缺乏输入而失去灵感来源;另一方面,AI通过模拟情感互动正在重塑人类的情感需求,甚至可能让人主动放弃真实的人际互动与情感磨合。

两者的结合潜藏在不稳定的因素:当AI同时接管我们的思考和情感,人类可能陷入「双失能」困境——既失去独立解决问题的能力,又丧失通过真实关系成长的情感能力。例如,依赖AI决策的人可能逐渐无法面对复杂问题,而依赖虚拟伴侣的人可能因缺乏现实情感挑战而退化社交能力。

在数年内(甚至更快),当AI通过数据掌握了我们的喜好,对行为有了精准的预判,甚至连指令都不需要下达的时候,人是否会变得没有那么热爱思考,慢慢地导致思维退化?

其实很难有答案。

我的三条AI原则

根据前程无忧《2025职场AI应用趋势报告》描述:行政支持岗位中,72.3%的受访者日常使用AI进行文档撰写,而财务岗位中,53.6%的受访者使用AI进行数据分析;00后使用AI的人数最多(34.7%);53.7%的受访者(包括各年龄段)认为未来主流模式是「人机协同增强型」,但实现路径截然不同。

年轻人试图用AI「跑得更快」,而中年群体因职业稳定性需求,倾向于规避风险,更关注「如何跑得更稳」。

无论何种形式,改变已经发生,并且很快。

科幻作家阿西莫夫在小说《环舞》中为人工智能制定了「机器人三定律」:

  1. 机器人不得伤害人类,或因不作为而使人类受到伤害;
  2. 机器人必须服从人类的命令,除非这些命令与第一定律冲突;
  3. 机器人必须保护自己的存在,只要这种保护不违反第一定律和第二定律。

为了让我自己「保持清醒」,我制定了应用AI的三条原则:

  1. 每日无AI时间,训练独立思考的能力。每天拿出时间完全不使用任何AI辅助工具。这段时间内,手动完成那些通常依赖AI的任务,如撰写方案或是进行数据分析。
  2. 建立数字防火墙,维护真实的情感连接。区分虚拟世界中的互动与现实生活中的人际交往,确保后者始终占据优先地位。设立专门的时间段用于面对面交流,远离屏幕,绝不使用虚拟伴侣。
  3. 仅用AI作为提升自我的工具。将AI视为提升工作效率和个人能力的工具,而不是替代品,任何重要决策由自己完成。

显然,上述三条原则可能是非常脆弱的,毕竟,我们都生活在这股巨大的浪潮之中,谁又能「逃离」呢?

0
0