一个让我觉得值得动手的问题
从 ChatGPT 刚出现的那一年开始,我就习惯和 AI 进行长对话——工作问题、技术问题、一些零散的思考。这些对话慢慢积累下来,会发现它们其实构成了一种很特殊的东西:
某种持续展开的个人思考过程。
但这些内容通常只会停留在聊天记录里,很难沉淀下来。
于是我开始想一个问题:
如果 AI 不是为所有人优化,而是随着一个具体的人不断成长,会是什么样?
各大公司在做的事,某种程度上是在造「神」——GPT、Claude、Gemini 被数十亿人的文字训练,代表人类集体智慧的压缩,对所有人都有用。
但「对所有人有用」和「随着你这个人成长」,其实是完全不同的事。
如果 AI 的经验来源不是互联网,而是一个人的长期对话、偏好、决策方式和知识结构,它会不会逐渐形成某种接近“个人认知”的系统?
这个问题让我动手搭了一套系统。
为什么现在可以尝试这件事
其实类似的想法很早就有人提出过。以前的问题是现实条件不成立:
- 大模型需要巨大的算力
- 小模型推理能力不够
- 本地运行成本高
- Agent 工具链几乎不存在
但最近几年情况开始变化:
- 本地模型的推理能力明显提升
- Ollama 让本地推理变得非常简单
- Agent 框架开始成熟
这让一件以前只能停留在概念里的事情,第一次变得可以被个人验证。
于是我决定搭一个实验系统,看看这个方向到底能走多远。
系统长什么样
我用了两台设备:
- NAS(威联通 TS-464C2):全天候运行 Agent 环境,Docker 跑 OpenClaw + Qdrant
- 笔记本(RTX 4060):负责推理,跑 Ollama + 本地模型
两台设备通过局域网连接,笔记本负责「想」,NAS 负责「记」。
为什么要分两台?其实一开始我也想过把所有东西都跑在一台机器上,但现实是:显卡在笔记本上,但没法全天开机;NAS能一直开,但没显卡跑模型。
理论上 AI 助手应该全天候待命,但如果全部放在云端运行成本会很高。
既然我已经有 NAS,再加上局域网就够用——
既能让它一直「在那」,也不用担心数据安全问题,还省了不少钱。
运行的模型:
- 主模型:qwen3.5:9b(主要交互)
- 子 Agent:qwen2.5:7b(执行具体任务)
- 向量化:bge-m3(记忆检索用)
做了什么
插件系统(6 个自定义插件):工具调用日志、安全删除拦截、对话记忆压缩、训练样本自动生成等,这些插件主要是为了让 Agent 的行为更可控。
记忆检索:SQLite + sqlite-vec,采用简单的混合检索策略:(向量 0.7 + 关键词 0.3)目前这个组合的稳定性还不错。
训练数据流水线:
历史对话 → 切块 → 自动评分 → Agent 自动审核 → 人工确认 → 微调数据集
目前已整理:1498 条训练样本,全部来自过去与 AI 的真实对话。这只是历史对话里已经整理出来的一小部分,还有不少早期记录还没导入系统。

踩过的坑(选几个有意思的)
坑 1:OpenClaw 有两套 Hook 系统,容易搞混
Internal Hooks 不支持工具调用监听,必须用 Plugin Hooks 的 before_tool_call / after_tool_call。这个坑花了不少时间。
有意思的是——踩完坑几天后,官方文档更新了,把两套系统的区别写清楚了。但我还是提交了一个文档 PR,加了更明确的示例和常见错误说明。「能用但不够清晰」在开源项目里仍然值得改。
坑 2:本地模型 thinking 模式的 token 陷阱
Qwen 3.5 有思考模式,num_predict 设太小的话,思考过程把 token 用完,response 字段直接返回空。设 2000+ 才稳。
坑 3:记忆和控制权的张力
越认真做记忆系统,越觉得「它应该能忘掉什么」这个问题比「它能记住什么」更重要。这本质上是个交互设计问题,不是技术问题。

为什么觉得方向是对的
移动互联网改变了人和信息的连接方式。AI 这轮在做更深层的事:
改变人和认知本身的连接方式。
云端大模型会越来越强,这是毫无疑问的。
然而在它旁边,还有一个鲜有人认真探索的空间:
一种不是为所有人服务,而是随着具体个体成长的 AI
人类其实一直在寻找一种方式,让自己的思考方式能够延续下去。
写书、教学生、建立机构——本质上都是同一种冲动:
把一种看世界的方式嵌入到能够继续发展的事物里。
如果个人 AI 真能成立,它可能会成为这种冲动的一种新形式。
有意思的地方在于:你可以看着这个过程发生。
不是把东西交给未来,而是在现实时间里观察一个被你的经验、偏好和思考方式慢慢塑造的系统。
它会往哪个方向发展?
在哪些地方变得和你很像?
又会在哪些地方产生你没有预料到的变化?
这种可能性空间,是我想把这个系统搭出来的原因。
这个系统现在还是一个研究原型,自我改进的闭环还没有完全跑通。
但架构已经搭起来了,方向感觉是对的。
开源地址:github.com/vanessa49/personal-ai-agent-lab
延伸阅读
如果你对实现细节感兴趣,我还写了一篇更偏工程实现的技术笔记: (Dev.to)
而关于「个人 AI 是否可能成为个体认知延伸」这个问题,我也写了一篇更偏思考的文章: (What if your AI could grow with you)
