沙牛提示

阅读本文需要6分钟,建一套自己的AI助手!
如果你喜欢本文,就分享给你的小伙伴!

https://mmbiz.qpic.cn/mmbiz_jpg/MwDFicibogD8tRkhlDSYty2zOsunpicWby0efdWI4mx1N95Bqs6iaRCOwunprdCvETAsOAa1uVu87picfqYeh14dBxA/640?wx_fmt=jpeg&from=appmsg

01 AI

随着AI的日益普及,很多大厂都开放了自己的大语言模型。

本文就来告诉你,如何在本地,搭建一套随时可用的AI问答系统。

02 Ollama

你只需要使用一款免费开源的工具:Ollama

Ollama是免费开源的,支持多达近2000种大语言模型,包括阿里通义千问、Meta llama3、Google Gemma等等。

使用它,你只需要按照以下步骤进行即可:

安装Ollama

下载大语言模型

进行问答

1. 安装Ollama

你可以在Ollama的官网 https://ollama.com/ 下载并安装它,它支持Windows、macOS和Linux等主流操作系统。

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby0eNBkmanZVt4vqkX7YId93iboIcDYM81D8a9ATCgvaRfX8ibfUmZ1Uib6g/640?wx_fmt=png&from=appmsg

安装之后,它会在后台运行,并默认开机启动,方便我们随时使用。

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby0JyOY7y4fLtibsYCiasPeaG37sucrglphuZVc2ADK4XvHT3TraiaXSZB8Q/640?wx_fmt=png&from=appmsg

不过,目前Ollama并没有提供图形界面的客户端,所以……你只能通过命令提示符使用它。

在Ollama安装之后,打开命令提示符,输入 ollama,如果收到这样的提示,则证明安装成功:

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby0EmBmvNKqibbYolLVVfY7qSco16b5Ggibk2xtpFT3bmL1Ribk48M0Z1fkg/640?wx_fmt=png&from=appmsg

2. 下载大语言模型

本地安装的Ollama,你可以理解为一个基础平台,现在,我们需要为这个基础平台,提供大语言模型的支持。

你可以在Ollama官网的 Models 页面,查询到所支持的大语言模型:

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby0ibDCssbklgaFEUWxIm1oVmibLcxIiblgz0avVib0nXmjEd34B90pgZTKVw/640?wx_fmt=png&from=appmsg

我们点开一个模型,比如Google Gemma:

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby0W30OWjUsfpdyZYMYasGKoNwo9UtheiazZQzt6fPVWZMT95exaLdooOQ/640?wx_fmt=png&from=appmsg

其中:

① 代表模型的不同参数版本,B代表Billion,即十亿,9B,代表90亿参数。

② 你可以在这里选择不同参数的版本。

③ 选择版本后,复制命令。

然后,把复制的命令 ollama run gemma2:9b,粘贴到命令提示符中,便会开始下载并运行该模型:

https://mmbiz.qpic.cn/mmbiz_gif/MwDFicibogD8tRkhlDSYty2zOsunpicWby00sIC9oCSrx99Q7N3JtAKHicOxyRJibZq10lvRlMhLFicxRQ9a41Vw1T8A/640?wx_fmt=gif&from=appmsg

要查看已经下载的模型,可以使用命令 ollama list

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby0naEkvwFoc3K63TNibsY6aNoGZ0omtbVNF98HGia0pPmWJtFjeOfV225g/640?wx_fmt=png&from=appmsg

ps:这命令风格真是跟Docker如出一辙。

3. 进行问答

安装模型后,我们就可以进行问答了。不过,因为没有图形界面,所以……你也只能在命令提示符这种上古神器中,来运行先进的人工智能……

运行一个模型,可以使用命令 ollama run 模型名称 ,如运行阿里千问,命令则为 ollama run qwen2:7b

好了,现在,你可以进行提问了:

https://mmbiz.qpic.cn/mmbiz_gif/MwDFicibogD8tRkhlDSYty2zOsunpicWby0MNthhMiauLTqA5AuKBRcAPILzHNrgTLPg5ufibzUaWRsCQh8bauMmicCg/640?wx_fmt=gif&from=appmsg

03 弄个图形界面

如果你愿意折腾的话,也可以为Ollama搭建一个开源的图形界面, 如LobeChat、Open WebUI等等。

而我选择的,是MaxKB,我把它部署在了自己的群晖NAS上:

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby0sSRqaOPZu0pDI2Ta9uElwGrWlO2GasbaJ5vAdzYxYjb0Rc2JInfEFA/640?wx_fmt=png&from=appmsg

有了图形界面之后,你便可以在整个局域网中使用Ollama,甚至,因为有公网IP的关系,我还把这个页面放到了网上,无论在哪,都能使用自己家里运行着的大语言模型。😉

04 在Obsidian中使用

你还可以在Obsidian中使用Ollama本地大语言模型,只需要安装插件 Smart Second Brain 即可。

安装并启用后,配置一下插件:

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby04YajEhAOF3f5IkX8YKx7OTMsSC7yjc964C5Rvak4KQBzErTctFJaqw/640?wx_fmt=png&from=appmsg

然后,它会索引你的Obsidian资料库。

但是,对于我包含了1200条笔记、180万字的资料库,再加上没有独显的debuff加持,直接给了我一个这样的时长提示:

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby0E3SVH1zSxnibOLFGySr6XEYkoFDkDOZBkrIIoPcTibjMhwpyo3OM2l5A/640?wx_fmt=png&from=appmsg

不过,即便只是把它作为一个Obsidian中的AI问答工具,还能即时保存为笔记,也是挺不错的:

https://mmbiz.qpic.cn/mmbiz_png/MwDFicibogD8tRkhlDSYty2zOsunpicWby0QT1OZmltkfuMaCMlDNulWFr8e7SYke62r9G6HibNwzUENKEzwIcjbDw/640?wx_fmt=png&from=appmsg
0
0