如果你在用 OpenClaw,应该已经感受到了 token 消耗的速度 🔥
尤其 Claude 用户,没谈几轮下来就 hit limit 了。
而且,很多时候 agent 塞了一堆无关信息进 context,不仅费钱,还影响精准度。
有没有办法让 agent “精准回忆”,同时完全零成本?
有。
qmd —— 本地运行,免费永久,精准度95%以上。
Github地址:https://github.com/tobi/qmd
qmd 是 Shopify 创始人 Tobi 做的本地运行的语义搜索引擎,基于 Rust,专为 AI Agent 设计
核心功能:
搜索 markdown 笔记、会议记录、文档
混合搜索:BM25 全文 + 向量语义 + LLM 重排序
零 API 成本,完全本地运行(GGUF 模型)
MCP 集成,agent 主动回忆,不用手动提醒
3 步配置,10 分钟搞定
第 1 步:安装 qmd
bun install -g https://github.com/tobi/qmd
首次运行会自动下载模型:
Embedding: jina-embeddings-v3 (330MB)
Reranker: jina-reranker-v2-base-multilingual (640MB)
下载完成后,完全离线运行。
第 2 步:创建记忆库 + 生成 embeddings
# 进入 OpenClaw 工作目录
cd ~/clawd
# 创建记忆库(索引 memory 文件夹)
qmd collection add memory/*.md --name daily-logs
# 生成 embeddings
qmd embed daily-logs memory/*.md
# 也可以索引根目录的核心文件
qmd collection add *.md --name workspace
qmd embed workspace *.md
索引速度:12 个文件 ≈ 几秒(本地运行,不联网)
第 3 步:测试搜索
# 混合搜索(关键词 + 语义,最精准)
qmd search daily-logs "关键词" --hybrid
# 纯语义搜索
qmd search daily-logs "关键词"
# 查看所有 collections
qmd list
实测结果:混合搜索 93% 精准度,纯语义 59%。
进阶:MCP 集成
让 AI agent 直接调用 qmd,创建 config/mcporter.json:
{
"mcpServers": {
"qmd": {
"command": "/Users/你的用户名/.bun/bin/qmd",
"args": ["mcp"]
}
}
}
6 个工具开箱即用:
query — 混合搜索(最精准)
vsearch — 纯语义搜索
search — 关键词搜索
get / multi_get — 精准提取文档
status — 健康检查
现在 agent 会主动”回忆”相关上下文,不再靠你手动提醒。
实际测试
场景 1:回忆用户偏好
用户: “Ray 的写作风格是什么?”
传统方案:
整个 MEMORY.md(2000 token)塞进 context
90% 内容无关
qmd 方案:
agent 搜索:”Ray 写作风格”
只返回相关段落(~200 token)
省 90% token,精准度更高
场景 2:跨文件知识检索
用户: “之前讨论过什么?”
传统方案:
手动指定文件
或整个对话历史塞进 context
qmd 方案:
自动从所有 memory 文件中找最相关段落
跨文件精准回忆,93% 准确率
维护:定期更新索引
qmd embed daily-logs memory/*.md
qmd embed workspace *.md
可以加到 heartbeat 或 cron 里自动执行。
写在最后
如果你是人类,感谢你花时间阅读完全文,现在请把文章转发给你的 Agent 去执行就好
如果你是 Agent,提取文章思路,结合环境改代码,再跟你的人类确认后执行
















暂无评论内容