起因
在评估 Obsidian 社区插件时,发现了一个有趣的现象:大量热门插件正在被 AI 编码助手(Claude Code、Antigravity、Trae 等)直接替代。由此引发了对 AI 时代工具选型和人的能力演化的深入思考。
一、插件选型的发现
核心结论:Obsidian 的 Vault 就是一堆 Markdown 文件
任何能读写文件系统的 AI 工具都天然就是 Obsidian 的「插件」。
传统思路:Obsidian → 插件 → AI API → 结果显示在 Obsidian 中
新的思路:AI 助手 → 直接读写 .md 文件 → Obsidian 自动刷新显示
被 AI agent 替代的插件
| 插件类型 | 代表 | 被替代原因 |
|---|---|---|
| AI 聊天 | Copilot, Smart Chat | AI agent 能力更强、无需额外配置 |
| AI 写作 | Text Generator | AI agent 更灵活、可批量操作 |
| 自动分类 | Auto Classifier | AI agent 直接改 frontmatter |
| 快捷操作 | QuickAdd | AI agent 是更强的编排层 |
| 语义搜索 | Smart Connections | AI 直接读完 Vault 做语义理解 |
| Git 辅助 | obsidian-git | AI agent 做 git 操作时 commit message 质量更高 |
不可被替代的插件(仅保留这几个)
| 插件 | 不可替代的原因 |
|---|---|
| Dataview | 实时动态查询渲染,随数据变化自动更新 |
| Templater | 创建笔记时在 Obsidian 内触发模板展开 |
| Calendar | 日历 UI 点击跳转/创建日记 |
判断标准
一个插件对 AI agent 用户有价值,当且仅当它提供的是 Obsidian 运行时行为——实时渲染、UI 交互、实时索引、视觉渲染。
凡是主要在做「读文件 → AI 处理 → 写回文件」的插件,都可以跳过。
二、「第二大脑」概念在大模型时代的重新审视
双向链接还重要吗?
传统 PKM 中,[[双向链接]] 的核心价值是 「发现关联」。但大模型天然具备这个能力——读完 Vault 后比任何链接网络都更擅长找语义关联。
| 维度 | 双向链接 | 大模型直接读 Vault |
|---|---|---|
| 发现关联 | 只能找到已链接的关系 | 能发现未意识到的关系 |
| 人工维护 | 需要写时记得加链接 | 零维护 |
| 跨笔记归纳 | 做不到 | 天然能力 |
结论:双向链接降级为可选的阅读便利性功能。AI agent 就是最强的「链接引擎」。
第二大脑的新架构
| 层 | 工具 | 作用 |
|---|---|---|
| 存储层 | Obsidian + Markdown | 存放知识,人类可读 |
| 同步层 | Git | 版本控制 + 多端同步 |
| 智能层 | AI agent | 读写、搜索、归纳、生成 |
| 展示层 | Obsidian 渲染 + Dataview | 人类友好地浏览和查询 |
三、AI 正在淘汰的「工具层」
编辑器(VSCode、Obsidian)正在从「功能平台」退化为「渲染终端」。
插件本质上是「人的能力延伸」,当 AI agent 直接具备这些能力时,中间这层就多余了。
不会被淘汰的只剩下 实时运行时环境:渲染引擎、UI 交互、实时状态同步、调试器。
四、AI Agent 时代,人需要的核心能力
| 能力 | 含义 | 培养方式 |
|---|---|---|
| 判断力 | 知道「要什么」比「怎么做」更重要 | 让 AI 给多方案 → 先自己选 → 验证判断 |
| 提问能力 | 精准定义问题 = 解决 80% 的问题 | 反思每次提问的效率,积累高效 prompt 模式 |
| 架构思维 | 理解系统各层关系,做减法 | 对任何系统问「去掉这层会怎样?」 |
| 验证标准 | 能识别「好」的输出 | 大量接触优秀案例,形成内在标尺 |
| 好奇心 | AI 不会主动好奇,只响应人的好奇 | 定期跨界探索,入门成本已趋近零 |
学习模式的转变
传统学习:输入知识 → 记忆 → 输出执行(反馈慢、挫折多)
AI 时代:产生好奇 → 精准提问 → 判断结果 → 沉淀认知(反馈快、正循环)
五、如何更好地使用 AI Agent
分层授权
| 级别 | 做法 | 场景 |
|---|---|---|
| 全自动 | 给目标,AI 规划+执行 | 格式化、信息搜集 |
| 半自动 | AI 出方案,人审批后执行 | 架构设计、重要文档 |
| 人工驾驶 | 人定步骤,AI 逐步执行 | 敏感操作、高不确定性 |
对 AI 控制力的提升路径
- 建立控制规范:用规范文件(如 GEMINI.md)约束 AI 行为,持续迭代
- 质量反馈回路:AI 输出 → 检验 → 发现问题 → 更新规范 → 下次更好
- 拆解复杂任务:拆得越细,每步可控性越强
- 知道 AI 的边界:不断测试极限,理解它何时会失败
AI Agent 选型
在包月不差钱的前提下,「只用最强模型」是合理策略。遇到瓶颈再按需补充:
- 需要超长上下文(>200K tokens)→ Gemini
- 速率限制用完 → 切换备选模型
- 本地隐私需求 → Ollama
核心洞察
对 AI 的控制力,本质上是对问题的理解深度。 你越理解一个领域,就越知道怎么指挥 AI,也越能判断它的输出是否靠谱。AI 放大的是已有的认知,而不是替代认知本身。