这篇文章的每位读者,都可以看成是一个将原始数据组织成有用信息进而做出决策的系统。我们每天在做的事情,是通过阅读、谈话、观看等等途径获取作为原材料的数据,通过记忆和理解把它们变成自身的一部分,再基于自己的认知结构判断、分析、组合它们,来产生新的知识,进而做出决策。
大致框架是这样的,但是当然还有不少细节,例如让·皮亚杰(Jean Piaget)的同化-顺应模型认为,我们获取的新数据是通过整合到现有认知结构(同化)或改变结构以容纳信息(顺应)的方式被理解消化,这意味着我们需要主动尝试理解和自己不一致的观点,来构建更符合现实的认知模型,以产生更靠谱的结论;生成新的知识过程中,基于经验而构成的直觉或者说“默会知识”会起到很大作用——迈克尔·波兰尼(Michael Polanyi)的《个人知识》和野中郁次郎的《创造知识的企业》都阐述过——也就是说我们不能将重要的记忆理解过程外包。
还有,新知识的产生过程不是个线性过程。我们需要不断试错,从反馈来调整我们的认知结构。当然也免不了受到我们不靠谱大脑固有的认知偏差影响,比如锚定效应、频率错觉、刻板印象、从众效应等等。这些认知偏差会影响我们对数据的处理,最终影响我们的决策。
总之这是个很麻烦的过程,和我们对真实世界的观察相符——只有极少数人能够有效获取和使用信息,从而获取巨大收益,无论是名望还是金钱。

不过让我们先简化一下,把这个框架简化为三个步骤:获取,记忆,生成。这三个步骤中,都有一些任务是可以用 AI 来提效的。
首先是获取。今天我们能够获取的数据量是前所未有的,但是它们的重要、可信、准确、完整、相关、及时程度却天差地别。我们的注意力和时间都极为有限,所以需要工具来初步筛选过滤。随意浏览显然不行,搜索引擎只能告诉我们我们已知的东西,任由自己沉溺在社交媒体信息流中简直是对自己的犯罪。
幸好,今天除了 RSS 主动订阅和基于用户的协同过滤(如 Follow)之外,也有了 AI 工具。Elicit、Scite 等提供了强大的文献分析能力,News Minimalist 可以根据重要程度筛选新闻。这类工具会越来越多,它们将会帮助我们自定义信息来源,而且可能会主动提出建议,帮我们扩展视野。
无论是书籍、文章还是新闻,我们往往要摘取其中的片段用来下一步处理——就像“渐进式总结”所提倡的那样。传统上我们做笔记比较麻烦:复制粘贴不容易留下印象,扫描识别也是一样——这两种方式的必要难度太低,存下来也很难想起——而手写或打字虽然可以提供一定必要难度,但是效率太低。
语音识别则刚刚好。无论是手机上的 Get 笔记、微信输入法,还是电脑上的讯飞输入法,都可以帮助我们快速记录。今天语音识别的准确度已经足以完成这些任务,在必要难度和效率之间取得平衡。
然后是记忆。如果我们的记忆能够像硬盘那样快速写入和删除就好了;但这可能还需要过些年才能实现。
我们需要记忆的东西类型不少,有些是事实,有些是观点,有些是概念。对于前两者,我们往往不需要真正记得它们,只需要知道它们存在,然后可以通过稳定的工具来查找即可。这已经衍生出了从知识管理到笔记术等等的一系列方法和工具,让 Obsidian、Roam Research、Notion 等工具人尽皆知,让弗拉基米尔·纳博科夫(Vladimir Nabokov)、尼古拉斯·卢曼(Niklas Luhmann)获得了专业领域之外的巨大名声。
这些工具和方法的核心是链接,可以看成是个人使用的维基百科。当然,分类和标签也是常见的技术,它们是记忆辅助工具。这些方法和工具可以形成一个包含了多种内容的知识网络,但维护成本也不低。
今天的 AI 具备一定语义分析能力,可以作为补充。AI 和知识库的结合是近两年的重要发展方向,检索增强生成(RAG,Retrieval-augmented Generation)成了个热词。Amazon 去年就推出了面向企业的 Amazon Q,腾讯则在去年年末推出了面向个人和小型组织的 ima.copilot,2G 存储空间,差不多够用。
对于事实和观点,我们可以以知识库来管理,以双链笔记为补充;但对于概念,我们需要更多主观努力。概念的理解需要更多的认知加工,手写笔记过去是、现在是、将来也可能是更好的选择。调动更多感官和肌肉、做笔记时主动思考,会更容易记住。Anki 之类的工具也不能放下,毕竟大脑并不是个好的记忆设备,重要内容需要不断复习。
最后是生成。大脑不擅长逻辑思考,它擅长通过模式识别产生一些碎片,即所谓“灵感”。灵感转瞬即逝,快速记录是关键。在这方面,语音笔记当然是首选。
过去我常用 flomo 配合微信输入法,但现在主要换成 Get 笔记了。Get 笔记除了录制和识别外,还会通过 AI 加工,自动删除重复、顿挫和语气词,整理成文。但是不知道是不是它的默认提示词设计有点问题,我觉得它整理后的内容经常有点偏离我的初衷。
也偶尔用豆包。豆包 App 的语音识别很准,说完后还能顺便和它讨论一下。虽然豆包大模型表现不突出,但是豆包 App 的交互体验真是很不错。
收集一些想法后,就该尝试把这些碎片组合成论述了。在这种时候,因为聚焦思维模式,经常会出现疏漏和偏差。这也难以避免,毕竟我们并不总是有合适的人可以和我们讨论、检查和补充。
但是现在我们有了推理大模型。用多个推理大模型来检查想法、讨论结构、补充逻辑,就相当于和多个人讨论。Grok 3、Gemini 2.0 Flash Thinking Experimental、DeepSeek R1、Kimi 1.5 都不错;数量大于质量,“只要有足够多的眼睛,错误就无所遁形”——开源社区的原则,在这里也适用。
甚至,如果嫌在多个网页之间来回切换太麻烦的话,现在还有可以和多个大模型同时对话的开源工具,Github 上可以找到一堆。
但需要注意的是,大模型本身也存在局限性。和它们讨论时的提示词很重要,而它们也可能会放大已有的偏见,缺乏真正的批判性。这和许多事一样,也不能过度依赖。利用大模型提供的不同视角和信息,激发自身更深层次的思考,增强自己的批判性思维能力,这才是关键。
