Overview

本仓库是为了向Obsidian新手介绍Obsidian中的AI工作流而打造的。

本博客是为了推广仓库以及写初步教程。阅读最新的进展可以去github。想要直接看效果可以看博客之前的视频+图片示例:AI|Obsidian|演示用|打造丝滑Ob+本地AI写作工作流

项目地址:https://github.com/LIUBINfighter/Sample_AI_Workspace

Obsidian的学习曲线本就比较陡峭,如果再加上自己部署LLM服务则要同时学习LLM部署和Obsidian各AI插件的对接。我对本仓库的设计以及对应文档的写作就是Obsidian新手加快将AI融入Obsidian工作流的进程,按图索骥修改配置后根据效果自行取舍和进行个性化设置。

本次使用的AI插件为(排名为个人喜好):

  • Local GPT 脱离鼠标,只用键盘 提示词定制程度高,在文档中丝滑写作,添加表情包,概括,整理思路,修改错误
  • Text Generator 定制程度极高,上限高 可以自行根据LLM服务商手册+Advanced Setting自由定制
  • Copilot 新兴插件,期待前途
  • Smart2Brain 最早入坑的插件,之后效果不是很稳定,现在开发者也不活跃 (凑数的)

为了更大程度发挥各AI插件的功能,我根据我自己的习惯设置了其他的插件,包括:

  • Kanban 看板插件,所有文档分类一目了然
  • Surfing 在Obsidian中内置浏览器,进行搜索和在线LLM使用(Kimi赛高!)
  • Git以及本地化 远程同步github仓库,保存你的项目进度 (保持本地化可直接zip下载/取消/删除插件)

对本地化有执念?担心仓库联网?请查阅:Git以及本地化文档.

插件横纵对比

Obsidian仓库设置,当然要以插件为主啦!所以我们优先介绍插件。以下内容主要都依据2024年11月22日访问+使用并制表。

如果有些糊涂,可以略过两个枯燥的表格,直接看我的主观体验就行。

对表格中的细节有疑惑,直接点击表格中的文件链接即可跳转(这里假设是obsidian环境)。

update: 将文件路径替换为完整相对路径后,在github上也可以完整预览本仓库的绝大多数文档。

基本情况

Repo为插件github repo地址。

NameRepoDownloadStarUpdate
Text Generatornhaouari/obsidian-textgenerator-plugin335k1.5k3weeks ago
Local GPTpfrankov/obsidian-local-gpt18.7k328last week
Copilotlogancyang/obsidian-copilot264k3.1k9 hours ago
Smart2Brainyour-papa/obsidian-Smart2Brain25.1k6336months ago

非常感谢社区的插件作者以及其他热衷于分享和帮助他人的参与者!

功能介绍

对这些细节有疑惑?我会在每个插件单独的文档中详细解释。

Name边栏QA选定内容输入阅读
.md
多文件外链跳转定制提示词定制传输格式
Text Generator✔已有模板+自由定制
Local GPT
选中+自设快捷键

只支持在编辑的文档中解读
❌不能多文件联动🔥插件面板设置
+社区支持
Copilot
选中+右键

提示词模板

可调整文件数
✔较准确
❌跳转抽风
只支持1种自定义System Prompt
Smart2Brain
手动复制粘贴

可调整相似度
🤔不太准
✔跳转稳定

主观评价

Name
Text Generator热爱折腾必备,定制化程度取决于耐心和技术文档,接入Kimi需要看文档调body
Local GPT使用最频繁,快捷键调用定制提示词模板超好用,脱离鼠标
Copilot有概括菜单栏以及聊天+仓库问答格式,但是跳转经常不成功
Smart2Brain多文件阅读挺不错,也会提供地址跳转,简单快速,但是插件容易莫名其妙崩溃

效果示意

Example-Summary README

本地Ollama 在线Kimi

Ollama

Ollama目前是本地部署LLM的首选之一。操作以及对接插件非常简单

部署Ollama可继续往下看 快速开始 ,或者点击查看Ollama详细介绍.

Kimi

Kimi以强大的长文本能力,文件上传和联网搜索能力(以及context window <20w字免费)占据了独特的C端生态位(反正我是不能没有Kimi了)。

在Obsidian中如果按照常规的思路去使用api,那真是太屈才了!但是开两个窗口分屏实在是太麻烦了,能不能再Obsidian里使用Kimi呢?我们使用Surfing插件就可以将Obsidian变为浏览器。目前本仓库的设置下你应当可以在Obsidian里直接打开以下链接:kimi.moonshot.

扫码登录一气呵成。如果你喜欢暗色主题也可以用Suring切换。

如果你想要接入API,请参考:Kimi

快速开始

本栏目是为了快速使用配置最简单基础,最快速的LocalGPT插件。

你可以在Obsidian下查看AI Project View以浏览感兴趣的其他设置和插件介绍。

下载安装包(git clone有时会卡住) 下载仓库压缩包

解压缩到你想要的位置,通过压缩包下载后解压将不会有.git文件夹。如果你会使用git则可自行修改仓库名称并添加到repo。

使用Obsidian打开

|280

打开后你可以在Obsidian里阅读本教程了。当然,别急着关网页!涉及Obsidian设置一类操作的时候还是要看网页的。我建议从这一步之后就在Obsidian里查看本教程并进行其他操作。

插件已经预设完成,我们去配置Ollama作为本地LLM服务。

配置Ollama

Ubuntu

我们用snap下载ollama,其他操作和windows没有太大区别。

sudo snap install ollama

Windows

DownloadOllama|600

win+r呼出 win+R输入cmd运行enter确定 |350

输入

ollama list

如果你刚下载Ollama,那么应当只有NAME-ID-SIZE-MODIFIED一行,没有其他的模型。

我们要使用llama3.2(LocalGPT只需要这个,用于Chat)以及nomic-embed-text(Copilot以及Smart2Brain额外需要用于索引).

我C盘够大,模型随便下。但是如果C盘本来空间不多,可能需要修改ollama配置使得模型文件保存在其他位置。

预设快捷键为ctrl+alt+g呼出选项卡。

LocalGPT-README|

可以手动选中输入内容,不选中则为整个文件的文字为输入。

在插件设置面板中查看LocalGPTAction:(提示词模板)

现在就可以在写作中开开心心的使用LocalGPT插件了!其他插件的教程会在仓库里陆续更新,有时间我会同步到Bloig.

更多个性化配置参考Ollama以及Ollama官网 https://ollama.com/

多余的话

好用给个Star吧喵喵喵:https://github.com/LIUBINfighter/Sample_AI_Workspace

Obsidian链接与Git Repo

为了保证README能在repo上完整呈现,我将所有照片等附件都改为了完整相对路径,例如:![](docs/attachment/img/kimi.png)。可在设置中重新设置为最简形式,形如:[[Kimi]]或者 ![[Kimi.png]]

文档中不定期出现链接错误,是由于Obsidian本地使用和github在线阅读之间的取舍不同。你可以在issue区写下问题和你的建议。

外链

Obsidian Plugin

NameGithub Repodoc/wiki
Text Generatornhaouari/obsidian-textgenerator-plugin- https://text-gen.com/
- https://docs.text-gen.com/
Local GPTpfrankov/obsidian-local-gpt
Copilotlogancyang/obsidian-copilot- obsidian copilot
- Documentation | Copilot for Obsidian
Smart2Brainyour-papa/obsidian-Smart2Brain

LLM Provider

NameDocs在线使用Kimi
MoonshotMoonshot AI 开放平台Kimi.ai - 会推理解析,能深度思考的AI助手 (moonshot.cn)
官网Github Repo
OllamaOllamaollama/ollama: Get up and running with Llama 3.2, Mistral, Gemma 2, and other large language models.